問題タブ [avcapturemoviefileoutput]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
swift - AVCaptureMovieFileOutput の向きを迅速に変更する方法
いくつかの異なる方法を試しましたが、役に立ちませんでした。AVFoundation でビデオの向きを変更したい。どうすれば作れますか?
出力を見つけることができるように試しましたが、向きを変更する方法がわかりません
ios - AVCaptureMovieFileOutput でビデオを保存した後、オーディオが再生されない
次のコードを使用して、iPhone カメラからビデオ ファイルを保存しようとしています。
これまでのところこれは機能していますが、AVPlayer を使用してビデオを再生すると、サウンドが再生されません。Quiktime でビデオを試してみると、同じ問題で、音が出ません。しかし、VLCで開くと、サウンドが再生されます。
参考までに、これは私がビデオを再生する方法です。これは実行されますが、音はありません。
私はビデオを調べましたffprone
:
何が悪いのかわかりません、助けてもらえますか?
ありがとうございました
avfoundation - AVFoundation: AVCaptureMovieFileOutput および AVCaptureStillImageOutput を使用したキャプチャ セッションで、シャッター音が遅れる
アプリにカメラ ビューがあり、ユーザーは静止画像またはビデオ録画を撮影できます。私の viewDidLoad では、AVCaptureMovieFileOutput と AVCaptureStillImageOutput を単一のキャプチャ セッションに追加します。
機能は正常に動作しますが、AVCaptureStillImageOutput.captureStillImageAsynchronouslyFromConnection で静止画を撮影すると、シャッター音が非常に遅く、ラグが発生します (2 つの別々の音に分かれているようです)。moviefileoutput を削除しようとしましたが、それがなくても問題なく動作します。問題は、AVFoundation の Apple 開発者ドキュメントでは、これら 2 つの出力を 1 つのセッションに追加しても問題ないことが示されています:( https://developer.apple.com/library/ios/documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/04_MediaCapture. html )
写真/ビデオの撮影ボタンがクリックされた場合にのみ、それぞれの出力を追加しようとしましたが、画像が非常に暗くなり、ビデオに1秒または2秒かかるため、露出とフォーカスを調整する時間がないようです最初にカメラの調整が表示されます。
私は captureSession.addOutputWithoutConnections を試してみましたが、記録ボタンが押されたときに接続を追加するのに苦労しました。
誰かが解決策を持っているかどうか疑問に思っていましたか?繰り返しますが、問題は機能ではなくサウンドだけです。サウンドをオフにすることに関するこの投稿を見たことがあります: AVFoundation、captureStillImageAsynchronouslyFromConnection 時にシャッター音をオフにする方法?
swift - iOS - Swift - 録音が最大許容長に達したときの一部のオーディオ
iOS アプリの一部として Swift にビデオ レコーダーを実装し、ビデオ出力の maxRecordedDuration を 4 秒 (30 フレーム/秒) に設定しました。
ユーザーが記録を開始すると、次の 2 つのシナリオが発生する可能性があります。
- ユーザーは、最大記録時間に達する前に記録を停止することを決定します。
- ユーザーがビデオ録画を停止する前に、最大録画時間に達しました。
どちらの場合も
と
これらは の一部であるため、トリガーされますAVCaptureFileOutputRecordingDelegate
。これは、ビデオ ファイルの記録プロセスで発生するイベントへの応答を担当します (Apple のドキュメントに対応)。
ビデオ出力は、ユーザー シナリオ 1 では完全に問題なく動作します。ただし、ユーザー シナリオ 2 では、ビデオ出力にいくつかのオーディオ ビットが欠落しています。つまり、ビデオの最後では、音声がなくてもビデオは再生され続けます。
func captureOutput( captureOutput: AVCaptureFileOutput!, didFinishRecordingToOutputFileAtURL outputFileURL: NSURL!, fromConnections connections: [AnyObject]!, error: NSError! )
最大記録時間に達すると、次のエラーがスローされることを認識しています。
エラー Domain=AVFoundationErrorDomain Code=-11810 "Recording Stopped" UserInfo={AVErrorTimeKey=CMTime: {120/30 = 4.000}, AVErrorRecordingSuccessfullyFinishedKey=true, NSLocalizedDescription=Recording Stopped, NSLocalizedFailureReason=録音が最大許容長に達しました., NSUnderlyingError=0x175324c0 {エラー ドメイン=NSOSStatusErrorDomain コード=-16413 "(null)"}}
メソッドの先頭にコードを追加して、エラーがスローされたときに記録が正常に終了したかどうかを確認しました。
コードは期待どおりに実行されますが、前述のように、ビデオの結果には最後に音声が欠落しています。このバグを修正する方法があるかどうか疑問に思っていましたか?
ios - AVCaptureSession のオーディオ音量を変更するには?
でビデオ+オーディオをキャプチャしていAVCaptureSession
ます。キャプチャ入力は、標準のオーディオとビデオAVCaptureDevice
です。キャプチャ出力はAVCaptureMovieFileOutput
. オーディオの音量を変更するにはどうすればよいですか?
ios - AVCaptureMovieFileOutput と AVCaptureVideoDataOutput の出力に品質の違いはありますか?
光跡の写真をキャプチャするプロセスで、高速で移動するオブジェクトの場合、AVCaptureVideoDataOutput のサンプル バッファを使用すると、ムービーを記録してフレームを抽出し、同じアルゴリズムを実行する場合と比較して、連続するフレーム間にわずかに不連続性があることに気付きました。
2 つのモードを使用した場合、リフレッシュ レート/フレーム レートに違いはありますか?
プロの写真撮影の経験を持つ同僚は、写真モードとビデオ モードのプレビューを比較すると、Apple のデフォルトのカメラ アプリでも目に見える遅延があると主張していますが、それは私には明らかなことではありません。
さらに、私は実際に低いフレームレートでビデオをキャプチャしています (最高露出に近い)
これらの実験を締めくくるには、同じことを確認または反証する決定的な証拠があるかどうかを知る必要があります
ios - swift iOSは、moviefileoutputを使用してCIFilterをリアルタイムでビデオに追加します
CIFilters をスワイプしてライブ ビデオ カメラに適用しようとしていますが、movieFileOutput を使用しており、見た例では videoDataOutput を使用しています。previewView で imageView のサブビューを作成することは可能ですか? それとも、私が望むフィルターを得るにはそれ以上のものが必要ですか? また、コードは明確にするためにswift 2です