問題タブ [avmutablecomposition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - レンダリングされたAVMutableCompositionのビデオとオーディオが同期していません
私はAVMutableComposition
次のトラックセグメントを持っています:
タイミングはとして表されCMTimeRange
、最初CMTime
は開始時間、2番目は継続時間です。つまり、2つのオーディオとビデオのチャンクがあり、その前と間に空のパディングスペースがあります。
問題は、このコンポジションをエクスポートしてエクスポートされたビデオを再生すると、エクスポート中に2番目の空のパディングオーディオセグメントが無視されたかのように、2番目のオーディオセグメントの再生が早すぎることです。正しいオーディオの最初のビデオセグメントを取得し、すぐに2番目のオーディオセグメントを取得し、その後、オーディオのない2番目のビデオセグメントを取得します。
何が間違っている可能性がありますか?
iphone - iPhone SDK。AVURLlAsset/AVMutableComposition を使用して AVplayer でビデオを回転させることは可能ですか?
AVPlayer を使用する単純なビデオ編集ビューがあります。1 つまたは複数の AVURLAsset を使用して AVMutableComposition を作成します。すべて正常に動作しますが、ビデオは常に 90 度回転します。つまり、ソース ビデオがポートレート モードで撮影された場合です。AVPlayer は横向きモードで表示し、その逆も同様です。私はドキュメントを調べて、それを「グーグル」で調べましたが、解決策が見つかりません。多分私は間違った場所を探しています。
誰でも助けることができますか?
前もって感謝します;
ジャンピエール
iphone - iPhone SDK: オーディオ トラックを追加した後、AVPlayer がコンポジションを再生しない
オーディオ トラック (AVAudioRecorder で録音) をコンポジションに追加した後、AVPlayer はそれを再生しません。AVPlayer.status = 1 および AVPlayer.error = null。
WWDC10 AVEdit のデモ コードを見てきましたが、かなり似ています。オーディオフォーマットの非互換性でしょうか?
元のコンポジションには、ビデオ アセットのビデオとオーディオ トラックがすでに含まれています。
新しく追加されたオーディオ トラックを削除しても、プレーヤーが再生する元のオーディオ トラックを削除しても再生されません。
また、問題を指摘するデバッグ情報を取得するのも難しいと感じています。誰かに提案があれば、それは大歓迎です。
これがオーディオトラックを追加するための私のコードです
どんな助けでも大歓迎です
ジャンピエール
iphone - 丸めずにCMTimeを使用しますか?
AVFoundationとCMTimeを使用するアプリケーションを作成しています。CMTime
を使用して作成したインスタンスの値をログに記録しましたCMTimeMake()
。この値は、最も近い整数に丸められているようです。CMTime
丸めることなく、正確な値を持つインスタンスが必要です。
私は参考文献で丸め定数を見てきましたCMTime
:
これらの戦略のどれをCMTime
インスタンスに適用するかを制御する方法の例はありませんか?CMTime
または、これが正しくない場合、インスタンスから正確な値を抽出するにはどうすればよいですか?
編集:
私は見つけてテストしましCMTIME_HAS_BEEN_ROUNDED()
た。CMTime
インスタンスをこの関数に渡すと、インスタンスが返されますNo
(値が丸められていないことを示します)。では、なぜ私は精度を失っているのですか?
iphone - AVFoundation + AssetWriter:画像と音声でムービーを生成
NSArrayからのUIImageを含むiPhoneアプリケーションからムービーをエクスポートし、事前に指定された時間に開始する必要がある.caf形式のオーディオファイルを追加する必要があります。これで、AVAssetWriterを使用して(このサイトや他のサイトで多くの質問と回答を行った後)、画像を含むビデオ部分をエクスポートできましたが、オーディオファイルを追加してムービーを完成させる方法が見つからないようです。
これが私がこれまでに得たものです
そして今、pixelBufferFromCGImageのコード
それで、オーディオファイルを追加する方法とそれらのためのバッファを作る方法とアダプタと入力設定などに関して私を助けてくれますか?
このアプローチで問題が発生する可能性がある場合は、AVMutableCompositionを使用してビデオのエクスポートに画像配列を使用する方法についてガイドしてください
iphone - iPhone SDK でビデオ録画を一時停止するにはどうすればよいですか?
ビデオの録画中に一時停止機能を備えた iFile というアプリがあるようです。彼らはどのようにこれを行うのですか?AVMutableComposition クラスを使用してみました。ユーザーが一時停止すると、新しいビデオをカットして最後にビデオをマージしましたが、ビデオをマージする処理時間は望ましくありません。
誰かがこれを行う方法について他の良いアイデアを教えてもらえますか? iFile の方法が非常にシームレスであることに気付きました。
ありがとう
iphone - 1 つのビデオ トラックと複数のオーディオ トラックを持つ AVPlayer
アプリのプレーヤーを 1 つのビデオ トラックと複数のオーディオ トラック (異なる言語用) に対応させようとしています。
これを実行しましたが、プレーヤーが起動しません:
そして、私は次のようにプレーヤーを起動しようとします:
しかし、何も追加されません。助けてくれてありがとう(そして私の英語でごめんなさい:))
iphone - AVAssetExportSession を使用して AVMutableComposition の上に CALayer を適切にエクスポートする方法
この質問が以前に尋ねられたことは知っていますが(たとえば、こことここ)、何が間違っているのかわかりません。
私はいくつかのビデオ クリップをそれらの上でアニメーション化AVMutableComposition
するいくつかの と組み合わせるために使用する を持っています。CALayer
my を取り、AVMutableComposition
それを for と組み合わせてAVSynchronizedLayer
内で再生すると、すべて正常に動作しAVPlayerLayer
ます。ビデオは正しく出力され、すべてが適切な場所に配置されます。
私の問題は、このことをエクスポートしようとしたときに、(エクスポートに使用する必要があるとドキュメントに記載されているものです) と AVAssetExportSession のAVVideoCompositionCoreAnimationTool
代わりに使用しようとしたことですが、エクスポートされたムービーではすべての座標系が逆になってAVSynchronizedLayer
いるため、何か問題が発生します。CALayer
したがって、再生中にムービーをエクスポートするときに 0,0 ポイントが画面の左上隅にある場合、0,0 ポイントは左下隅にあるため、アニメーションが狂ってしまいます。
これに関する記事を読み、Apple から AVVideoEdit サンプルをダウンロードしましたが、何が起こっているのかわかりません...
ios - AVMutableComposition-ビデオアセット間の空白/黒のフレーム
私は現在、次のようにAVMutableCompositionを使用して5本のビデオを連続して配置しようとしています。
次に、AVAssetExportSessionを使用してビデオをエクスポートしますが、各ビデオ間で、削除する必要のある空白/黒のフレームが表示されます。誰かが以前にこの問題を抱えていましたか?もしそうなら、あなたはそれを修正することができましたか?
また、空白のフレームはソースビデオファイルにはありません。
前もって感謝します。