問題タブ [cmsamplebuffer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
swift - 変更された sampleBuffer イメージを AVAssetWriter に追加しながら、マイクからオーディオを録音する方法
これは、私が以前持っていた未回答の質問への拡張です: AVCaptureSession is not recording audio from the mic in Swift
リアルタイムで変更されているビデオとマイクから録音されているオーディオの両方をどのように書き込めばよいのか、私にはよくわかりません。私は何ヶ月も探していましたが、何も見つかりませんでした。私の問題を他の問題と区別しているように見えるのは、出力からすべてを通常のビデオ。ここから、sampleBuffer からオーディオを取得するために何をすべきか、またはそれが正しいアプローチであるかどうかさえわかりませんが、他の人が captureOutput から AudioBufferList を取得するのを見てきました。
最低限、これは私のメインクラスにあるものです:
アセット ライターを作成するクラス
記録するときは、ライターを作成し、書き込みを開始してセッションを開始します。
録画を停止すると、別のビューに移動してビデオが表示されます。
しかし、これは私が立ち往生しているところです-マイクの入力をどこでどのように録音しますか??
繰り返しますが、私は何ヶ月もこれを繰り返してきました - ヘルプを見つけることができるドキュメントはありません。ありがとうございました
ios - タイプ「CMSampleBuffer」の値にメンバー「imageBuffer」がありません
現在、Swift でライブ カメラ ビューを使用するプロジェクトに取り組んでいます。GitHub で見つけたコードを使用してライブ カメラ ビューを表示しました。これは、Mojave を実行している MacBook Pro でうまく機能します。私はすべてのファイルを外付け HDD に保存しているので、iMac に行き、そこでプロジェクトの作業を開始しました。私は Xcode 10 ベータ版の 2 つの異なるバージョンを持っていると思いますが、これが問題の一部である可能性がありますか? 基本的に、この行は私の MacBook では正常に動作しますが、macOS high Sierra バージョン 15 を実行している iMac では動作しません。
次のエラーが表示されます。
しかし、私の MacBook でまったく同じプロジェクトを開くと、これはまったく問題なく動作します。これは Xcode のバージョンの問題でしょうか、それとも 2 つの異なる macOS バージョンを実行しているためでしょうか?
ios - RPScreenRecorder.shared().startCapture で CMSampleBuffer からビデオ フレームを取得する方法は?
私は RPScreenRecorder.shared().startCapture を使用して画面を記録し、AVAssetWriterInput を使用して h264 ビデオ ファイルにエンコードしますが、直接 .mp4 が得られ、ストリーミング用に画面を記録する際にフレームごとに h264 ビデオ ファイルが必要です。RPScreenRecorder.shared().startCapture から取得したサンプル バッファ データにアクセスする方法はありますか? これがコードです。ここでは mp4 ファイル全体を取得しますが、ビデオのフレームのみが必要です