問題タブ [avcapturesession]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
objective-c - カメラを使用した心拍数の検出
アプリケーションInstant Heart Rateと同じ機能が必要です。
基本的なプロセスでは、ユーザーは次のことを行う必要があります。
- カメラのレンズに人差し指の先をそっと置きます。
- 均等に圧力をかけ、レンズ全体を覆います。
- 10 秒間静止して心拍数を測定します。
これは、フラッシュをオンにして、血液が人差し指を通って移動するにつれて光が変化するのを見ることで実現できます。
ビデオ キャプチャから光レベル データを取得するにはどうすればよいですか? これはどこで探せばいいですか?クラスを調べましたAVCaptureDevice
が、役立つものは何も見つかりませんでした。
私も見つけましたAVCaptureDeviceSubjectAreaDidChangeNotification
、それは役に立ちますか?
ios - AVAssetWriterInput は Core Audio を介してライブ オーディオで使用できますか?
AVFoundation を適応させて、可能と思われることを実行しようとしていますが、シナリオのサポートや例がどこにも見つかりません。
フロント カメラからビデオを取得し、それを Core Audio からのオーディオと組み合わせる必要があります。
カメラからビデオを取得し、それをマイクからのオーディオと組み合わせるという一般的なケースを解決するコード作業があり、うまく機能します。これは主に、RosyWriter の Apple サンプル コードを基にしています。
ただし、Core Audio から出力されるオーディオのライブ ストリームを使用し、そこから AVAssetWriterInput を作成し、AVCaptureSession への入力として追加する方法が見つかりません。AVCaptureInput と AVAssetWriterInput のセットアップに関係するすべてのリソースは、デバイスでそれらを初期化し、リアルタイムでデバイスからメディアを取得することを中心に展開していますが、デバイスからオーディオを取得しようとしているわけではありません。
AVCaptureInput を作成し、特定の ASBD 形式のデータを期待するように指示し、Core Audio コールバックからそのデータを渡す方法はありますか? データをディスクに書き込んでディスクから読み取る必要はありません。非常に遅くなると思います。解決策があるはずですが、解決策が見つかりません。
オーディオを格納するために使用する AudioBufferList オブジェクトから CMSampleBuffers を作成するコードがあると言えば十分です。CMSampleBuffers を調べたところ、有効なデータ フレームが含まれているようですが、そのデータを変更した RosyWriterViewProcessor "writeSampleBuffer:ofType:" に送り返すと、正しく書き込まれているように見えます (エラーは発生しません)。ビデオ ファイルが完成したら、ビデオだけが表示され、オーディオは聞こえません。
私がやろうとしていることを達成する方法についてのヒントはありますか?
以下は、私がずっと使用してきた標準の ASBD です。
解決策がなければ、AVComposition を使用して一緒にパッチできると思う別々のビデオ ファイルとオーディオ ファイルがありますが、ビデオ ファイルとオーディオ ファイルは定期的に長さが異なり、引き延ばして戦いたくないので、そのルートには行きたくありません。トラックを 1 つまたは別のトラックに合わせるだけです。最終的には同期されない場合もあります。AVCaptureSession ですべてを設定し、AVFoundation にすべてをインターリーブするという大変な作業を任せたいと思います。
iphone - AVCaptureSession でキャプチャした画像の解像度と品質を指定する obj-c iPhone アプリ
AV
こんにちは、iphone カメラを使用して特定の解像度 (および、可能であれば特定の品質) で画像をキャプチャするキャプチャ セッションをセットアップしたいと考えています。ここにセットアップAV
セッションコードがあります
とsetSession
:
および出力方法:
すべてが非常に標準的です。しかし、キャプチャされた画像の解像度とその品質を指定するには、どこを何を変更する必要がありますか。お願い助けて
objective-c - AVCaptureSession と AudioQueue
私は Objective-C と iOS の初心者で、あなたの助けが必要です。マイクのオーディオ入力を受け取り、それをスピーカー出力内に直接リダイレクトしたいと思います (ファイルを経由せずに)。
私はここにいます: AVCaptureSession を使用してマイク入力を取得し、AudioQueue を使用して出力バッファーを再生しようとしています。しかし、私はインターネット上で何も見つけることができません.誰もそれをする必要はないようです. 私は何か誤解していますか?CMsampleBufferRef を、AudioQueue が再生に使用できる適切な pcmbuffer に変換する方法を知りたいだけです (したがって、AudioQueue で何を変更して AVCaptureSession とリンクするか)。それは良い方法ですか?出力バッファをファイルに書き込む方法はたくさんありますが、オンザフライで何かを行う、何もしない、またはまだ使用できない短い説明のみです。
私は初心者なので、サンプルコードで非常に詳細な説明をお願いします。今のところ、AVCaptureSession を動作させることができます (CMSampleBufferRef に何かがあります)。AudioQueue でファイルを再生できますが、これら 2 つをリンクしたい場合、どうすればよいかわかりません。
前もって感謝します
ios - AVCapture フレームワークでビデオ キャプチャのフレーム レートを調整したい
VoiceOver のパフォーマンスに影響を与えていることがわかったため、アプリケーションのビデオ キャプチャ フレームレートを調整しようとしています。
現時点では、ビデオ カメラからフレームをキャプチャし、OpenGL ルーチンを使用してフレームをできるだけ迅速に処理します。キャプチャ プロセスで特定のフレームレートを設定したいと思います。
videoMinFrameDuration または minFrameDuration を使用してこれを行うことができると期待していましたが、パフォーマンスに違いはないようです。何か案は?
何か案は?何か不足していますか?これはスロットルするための最良の方法ですか?
objective-c - AVCaptureSession を使用して AUDIO のみを記録する
AVCaptureSession を使用してオーディオを録音したいのですが、オーディオのみ (ビデオなし)。RosyWriter のサンプル (ビデオに関するすべてのコードを削除) に従いましたが、オーディオ用の AsseWriter を作成すると、次の行でエラーが発生します。
エラーは次のとおりです:ファイルタイプUTIが無効です...
captureURL は次のとおりです。
それを修正する方法を知っていますか?kUTTypeMP3 または kUTTypeMPEG4Audio で試しましたが、何も変わりません。
AVCaptureSession を実行し、オーディオをビデオから分離してサーバーに別々に送信する必要があるため、オーディオのみを使用しようとしています。
私を助けることができるコードのサンプルに興味があります。
助けてくれてありがとう
ios - AVCaptureSession / AVCaptureMovieFileOutputによって出力されたビデオファイルにカスタムの時間ベースのデータを追加できますか?
AVCaptureSessionとAVCaptureMovieFileOutputを使用して、カメラからビデオ/オーディオをキャプチャし、それをmovファイルに書き込みます。
また、AVキャプチャのタイムラインと同期させたい別のソース(たとえば、加速度計のサンプル)から時間ベースのデータをキャプチャしています。
カスタムの時間ベースのデータを含むmovファイルに3番目の「メディア」トラックを追加することは可能ですか?
または、AVMetadataItemにはtimeプロパティがあるので、データを時間ベースのメタデータとしてmovファイルまたはそのメディアトラックの1つに追加できますか?時限データを保持するためにmediaTypeAVMediaTypeTimedMetadataのAVAssetTrackを追加することは可能ですか?
iphone - AVCaptureSession がメモリ警告を受け取り、理由もなくクラッシュする
HD写真を操作するアプリに取り組んでいます。AVCaptureSession で写真を撮って停止し、その写真に効果を適用しています。
私を夢中にさせるのは、すべてが正常に機能することです。楽器は、私が使用しているすべてのメモリを適切かつ時間通りに解放することを教えてくれます。はい、時には100MBまで非常に高くなります。しかし、それはすぐに落ちます。
その後、キャプチャ セッションを再起動すると、メモリ警告が表示されました。その理由はまったくありません;_; 解放された場合に使用したすべてのメモリ...次にキャプチャ セッションを再開すると、アプリがクラッシュします。メッセージもログも何もありません。
これを解決する方法がわからない、どこを探せばいいのかわからない... 誰かが私を少し助けてくれたら、とてもうれしいです!
前もって感謝します!
ios - iPhone: setSampleBufferDelegate を介して個々のフレームを処理するときに、AVCaptureDeviceInput カメラの前面/背面を切り替える
AVCaptureVideoDataOutput:setSampleBufferDelegate セレクターを介して個々のフレームを処理しているときに、前面カメラの使用から背面カメラの使用に切り替えようとすると、興味深い問題に遭遇しました。カメラ スワップが機能し、表示しているプレビュー画面が見栄えがよくなりました。キャプチャした結果のフレームがポートレート モードではなく、ランドスケープ モードになっているだけです。また、前面カメラから背面カメラに切り替えると、背面カメラが風景フレームをキャプチャします。この場合、入力を交換すると何かが台無しになっていると思われます-間違っているのは入力ではありません。AVCaptureSession を正面向きのカメラで開始することで、この理論を検証しました。バッファ デリゲートに渡されたフレームは正しくポートレート モードになっています。私'
AVCam のデモからインスピレーションを得ました。そのコードと私のコードの疑わしい違いは、AVCaptureMovieFileOutput に記録することです。個々のフレームを処理していません。
何か案は?デバイス入力を交換すると、プロセッサに送信されるフレームの向きが変わるのはなぜですか?
返信ありがとうございます。
ios - カスタムカメラiOS
カスタムカメラを実装しようとしたアプリを入手しました。これはソースコードです:
次に、写真を作成して他のViewControllerに送信しようとしました。
しかし、私のターゲットクラスでは、この画像は左に90度回転しています。
私はそれを元に戻そうとしました:
私の画像は右に回転しましたが、ミラーリングされて引き伸ばされて表示されます。
何か助けはありますか?他の方法で回転させることはできますか、それともこのように写真を撮る必要がありますか?