問題タブ [avfoundation]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - 最初の曲の再生が完了したときに音楽アプリケーションで次の曲を自動再生する方法
avtouchController を使用して音楽アプリを作成しました。自動再生を使用して次の曲を次々と再生したいのですが、曲を自動再生する手順を教えてください。
iphone - AVFoundation Framework iPhoneを使用したビデオ録画?
WWDC2010AVCamDemoの例のサンプルコードを使用してアプリケーションを開発しています。アプリでは、iPhoneのフロントカメラからビデオを録画する必要がありますが、新しいiPhone 4が私の場所で利用できないため、コードを正しくテストできません。
私が正しい方向に進んでいるかどうかにかかわらず、誰かが私に頭を上げてくれると本当にありがたいです。以下のコードに示すように、iPhone 3G(iOS 4.1にアップグレード)でテストできる制限付きコードは、を設定するとクラッシュしAVCaptureSession
ます。
iphone - iPhoneの平均構成の問題
iPhoneでavcompositionを使用して、2つのビデオを次々に表示するビデオを作成しようとしています。このコードは機能しますが、新しく作成されたビデオの全期間で 1 つのビデオしか表示できません
他の誰かを助けるかもしれないので、コード全体を投稿しました。
すべきではない
最初の動画の最後に 2 番目の動画を追加する
乾杯
iphone - AVAudioPlayer にカテゴリを追加できません
AVAudioPlayer にカテゴリを追加しようとしていますが、「'AVAudioPlayer' のインターフェイス宣言が見つかりません」というエラーが表示され続けます。
AVAudioPlayer+Fade.h
AVAudioPlayer+Fade.m
クラスでAVAudioPlayer を使用しているMainMenuViewController
ので、次を追加しました。
にMainMenuViewController.h
そして私は追加しました:
にMainMenuViewController.m
。
AVFoundation がプロジェクトに追加されます。Fade カテゴリがなくても、AVAudioPlayer を完全に使用できます。Fade カテゴリを追加すると、そのエラーが発生します。何か案は?
iphone - iPhoneビデオカメラのデータをコンピュータにライブストリーミングするのに最適なテクニックは何ですか?
iPhoneのカメラからMacで実行されているアプリにビデオをストリーミングしたいと思います。ビデオチャットのように考えてください。ただし、デバイスからレシーバーアプリまでは一方向です(ビデオチャットではありません)。
これまでの私の基本的な理解:
- AVFoundationを使用すると、ファイルに保存せずに「ライブ」ビデオカメラデータを取得できますが、これは非圧縮データであるため、自分で圧縮を処理する必要があります。
- ネットワークの場所に送信するための組み込みのAVCaptureOutputサポートはありません。私は、このビットを自分で解決する必要があります。
私は上記について正しいですか、それとも私はすでに軌道に乗っていないのですか?
Apple Tech Q&A 1702は、個々のフレームを画像として保存するための情報を提供します-これはこれを行うための最良の方法ですか?30fpsを節約してから、ffmpegのようなものを保存して圧縮しますか?
iPhoneへのライブストリーミングについては多くの議論がありますが、ライブビデオを送信している人々に関する情報ははるかに少ないです。正しい方向に向けられるように、いくつかの幅広いストロークを期待しています。
iphone - Iphone の問題で UIImages からビデオを作成するための ASSETWriterInput
UIImage
s pixelbuffer をに追加するには、次の 2 つの方法を試しますASSETWriterInput
。ビデオ ファイルにデータがありません。どうしたの?
1 アダプタ クラス
2 作る
iphone - AVPlayer iOS4.0のNSURLからファイルサイズと現在のファイルサイズを取得する方法
上記のトラックの UIProgressView を作成しようとしています。その URL からファイル サイズと現在のファイル サイズを取得するにはどうすればよいですか? 助けてください、ありがとう!
iphone - AVAssetExportSession - AVMutableCompositionTrack - エクスポートされた出力ファイルは空です
.mp3 ファイルを AVMutableCompositionTrack に追加しようとした後、新しいファイルをエクスポートしたいと考えています。問題は次のとおりです。生成されたファイルはエクスポート後に存在しますが、空であり、再生できません。誰かが私のコードでエラーを見ますか?
前もって感謝します !
iphone - AVMutableCompositionTrack-insertTimeRange-insertEmptyTimeRangeの問題
奇妙な問題があります。2つのサウンドファイルと無音から新しいサウンドファイルを生成したいのです。
サウンド1:2秒の長さ+無音:2秒の無音+サウンド2:2秒の長さ
以下のコードを試してみると、すべての部分を含む6秒の長さのサウンドファイルが得られますが、順序が異なります。順序は次のとおりです:sound1、sound2、silence
私はこの沈黙をこの作曲の真ん中に置くことができません(これも最初ではありません)。これは典型的な動作ですか、それとも何か問題がありますか?
セグメントをまとめるためのコードは次のとおりです。
おそらく誰かがアイデアを持っていますか?前もって感謝します!
ちなみに、insertEmptyTimeRange-lineのない次のコードも機能せず、4秒間のサウンドを生成し、sound2がsound1の最後までスライドします。
セグメント間に「何もない」ことは許されないようです!?
iphone - iPhoneでAVAssetWriterInputPixelBufferAdaptorと組み合わせてCVPixelBufferPoolを使用するにはどうすればよいですか?
次のコードを使用して、画像からビデオを正常に作成しました
ここで私は使用しCVPixelBufferRef
ました。CVPixelBufferPoolRef
これの代わりに、を組み合わせて使用したいと思いAVAssetWriterInputPixelBufferAdaptor
ます。
誰かが私がデバッグして使用できる例を提供できますか?