問題タブ [avassetreader]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - AVAsset が NSURL を認識しない - クラッシュ - iOS
iOSアプリを作っています。その機能の 1 つは、レコードを保存し、オーディオ ファイルを保存できることです。
録音したオーディオ ファイルの URL を保存するために、次のようにファイル パスとして NSUserDefaults に保存します。
file:///var/mobile/Containers/Data/Application/17F8E799-D7E1-4B3C-9DFE-7BA48E346314/Documents/recordName.aif
「FVSoundWaveDemo」というライブラリを使用して、録音したファイルの音波を表示しようとしています。しかし、URLに問題があります...
「FVSoundWaveDemo」の例では、ローカルにインポートされたファイルを次のようにロードします。
「song1.m4a」というビットが表示されますが、それを置き換えて、アプリが代わりに filePath URL を使用するようにしたいと考えています。上記の質問で表示した filePath URL のように。
filePath を通常の URL に「変換」しようとしたり、AVAssets を使用しようとしたりするなど、あらゆる種類のことを試しました。しかし、私が試したことはすべて、このエラーが発生するだけです:
キャッチされていない例外 'NSRangeException' が原因でアプリを終了しています。理由: '*** -[__NSArrayM objectAtIndex:]: インデックス 0 が空の配列の境界を超えています'
これは、私が使用しているライブラリが AVAssets を次のように使用するためです。
では、どうすれば AVAsset を filePath URL だけで動作させることができるでしょうか?
開発者がXcodeプロジェクトに追加できるローカルにインポートされたオーディオファイルではなく、アプリによって保存された録音されたオーディオファイルを表示しようとしていることに注意してください。
私はこれで何日も立ち往生しています。あなたが私を助けることができれば、それは大歓迎です、ありがとう.
時間をありがとう、ダン。
ios - iOS で断片化されたメディア データを読み取る方法
私は長時間のビデオを録画できるiOSアプリケーションを開発しました。以前AVCaptureSesssion
は録画を使用していました
しかし、タイムスタンプに従って記録されたメディアデータを分割したいので、次の手順に従ってこれを行うことを考えました
1) を使用してメディア データをファイルに書き込みますAVAssetWriter
(これは既に実装されています) 2) movieFragmentInterval
5 秒ごとにフラグメント アトムを作成するように記録されたデータに割り当てます 3) メディア データ フラグメントを読み取ります
4) 分割されたメディア フラグメントから動画ファイルを作成します
私は次のリンクを実行しましたが、チャンクを作成して読むのが簡単になることを理解しました。
保存されたフラグメントからタイムスタンプ データを読み取りたいのですが、メディア フラグメントを読み取るための API はありますか?? それとは別のムービーを作成する
ios - AVAssetReader を使用して複数のビデオを同時にデコードする方法は?
複数のビデオ ファイルからフレームをデコードし、opengl テクスチャとして使用しようとしています。
AVAssetReader オブジェクトを使用して h264 ファイルをデコードする方法は知っていますがstartReading
、. 私がしたいのは、電話をかけて、いつでもどこでも電話することです。このようにして、AVAssetReader から新しいビデオ リーダー クラスを作成し、opengl テクスチャとして使用したいときにいつでも複数のビデオ ファイルからビデオ フレームをロードできます。while
status
AVAssetReaderStatusReading
startReading
copyNextSampleBuffer
これは実行可能ですか?
ios - AVAsset をフレームに読み込み、コンパイルしてビデオに戻す
みんな!私のプロジェクトのアイデアは、ビデオを収集し、それをフレームに分割し、フレームごとに特定の効果を適用してから (トピックではなく)、すべてをコンパイルすることです。
次のコードを使用すると、ビデオをフレームに読み込んで配列に渡すことができます。
次に、上で述べたように、フレームごとにトラックを読み取ります
すべてを配列に入れることはできますが、すべてをコンパイルしてビデオトラックに戻し、元のトラックのオーディオでコンパイルしてから保存する必要があります。しかし、ウェブ上で有益な情報を見つけることができませんでした。助けてください!
前もって感謝します!