問題タブ [cmsamplebufferref]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - iOS - CMSampleBufferRef/CVImageBufferRef のスケーリングとトリミング
AVFoundation を使用してからサンプル バッファを取得していますAVCaptureVideoDataOutput
。次を使用して、直接 videoWriter に書き込むことができます。
私が今やりたいことは、CMSampleBufferRef 内の画像を UIImage または CGImageRef に変換せずにトリミングおよびスケーリングすることです。これは、パフォーマンスが低下するためです。
cmsamplebufferref - 後の処理のために CMSampleBufferRef を保存する
一部のカメラのバーストモードのように、AVFoundation フレームワークを使用して、AVCaptureStillImageOutput から静止画像の「シリーズ」をすばやくキャプチャしようとしています。完了ハンドラを使いたいのですが、
後で処理するために imageSampleBuffer を NSOperation オブジェクトに渡します。ただし、NSOperation クラスでバッファを保持する方法が見つかりません。
ここで私が間違っていることを知っている人はいますか? これを行うためのより良いアプローチはありますか?
objective-c - CMSampleBufferRef を NSData に変換する方法
CMSampleBufferRef を NSData に変換するにはどうすればよいですか?
このスレッドMPMediaItem
に関する Erik Aigner の回答に従って、 のデータを取得できましたが、データのタイプはです。CMSampleBufferRef
CMSampleBufferRef が構造体であり、iOS Dev Library のCMSampleBuffer Referenceで定義されていることは知っていますが、それが何であるかを完全に理解しているとは思いません。CMSampleBuffer 関数はどれも明らかな解決策ではないようです。
iphone - iOS-CVPixelBufferRefのサイズを自動的に変更
CMSampleBufferRef
ユーザーの入力に基づいてトリミングとスケーリングを試みてratio
います。次のコードはCMSampleBufferRefを取得し、それをCVImageBufferRefに変換し、CVPixelBufferを使用してバイトに基づいて内部画像をトリミングします。このプロセスの目標は、ビデオに書き込むためにトリミングおよびスケーリングされたCVPixelBufferRefを使用することです。
この方法を使用してビデオの出力に書き込もうとすると、メモリ警告を受け取り続けることを除いて、すべて正常に機能します。同じ比率を保てば大丈夫です
また、 CMSampleBufferRefとCGContextを使用してさまざまなアプローチを試しました。ここで任意のアプローチの解決策を提供できれば、私はあなたにフルスコアを与えることができます
ios - AVAssetWriter がオーディオを録音しない
iPhone で avassetwriter を使用してオーディオをビデオに録音するのに問題があります。電話のカメラからビデオを録画することは問題ありませんが、オーディオを追加しようとすると何も得られません。また、フォト アルバム アプリのビデオに表示される時間も、何かおかしなことを示しています。4 秒のビデオはshow 15:54:01 またはそのようなものであり、ビデオが短くても、番号の後に作成されたすべてのビデオが増加します。ここで他の質問で見たものに従おうとしましたが、うまくいきませんでした。
オーディオ入力の設定方法は次のとおりです
AVAssetWriterの設定方法は次のとおりです
次に、AudioOutput コールバックによって送信された CMSampleBufferRef を使用してオーディオ サンプル バッファを書き込む方法を次に示します。
本当に助けていただければ幸いです。私は一日中これにこだわっています。
avaudioplayer - UDPを使用して、あるデバイスでオーディオを録音し、別のデバイスで再生する
あるiOSデバイスからオーディオを録音し、同時に別のデバイスに送信して再生したい。
AVCaptureAudioDataOutputを使用して、両端でCMSampleBufferRefを適切に送受信しようとしましたが、レシーバーデバイスで再生すると、エラードメイン=NSOSStatusErrorドメインコード=1954115647が表示されます。
受信したCMSampleBufferRefを送信者デバイスでNSDataに変換するために次のコードを使用しています:
受信機デバイスでオーディオを再生するための次のコード:
受信したバイトを適切なオーディオ形式として認識していないようです。
この問題を受け取るのを手伝ってください。
ありがとう。
iphone - CVPixelBufferリファレンスから目的のデータを取得する
カメラ入力をリアルタイムで表示し、中央のピクセルのカラー値を取得するプログラムがあります。私はcaptureOutput:メソッドを使用してAVCaptureSession出力(CVPixelBufferとして読み取られる)からCMSampleBufferを取得し、次のコードを使用してピクセルのrgb値を取得します。
その式((width * height)* 4)/ 2で中央のピクセルが得られますが、画像の上部の中央のピクセルが得られます。画面中央のピクセルにアクセスするには、どの式を使用する必要があるのでしょうか。これらのピクセルバッファの内部構造を本当に知らないので、私はちょっと立ち往生しています。
将来的には、真ん中の4つのピクセルを取得して平均化し、より正確な色の読み取りを行いたいと思いますが、今のところ、これらがどのように機能するかを理解したいと思います。
ios - オーディオCMSampleBufferRefをデータに変換し、受信したデータを使用して他のデバイスでオーディオを再生する方法
私はビデオ会議を実装しようとしています。CaputreSessionを使用してビデオとオーディオをキャプチャし、ビデオCMSampleBufferRefを隠蔽して画像を作成し、他のデバイスにデータを送信できます。
しかし、オーディオCMSampleBufferRefをデータに変換し、データを使用して他のデバイスでオーディオを再生する方法がわかりません。
誰か助けてくれませんか?
編集:
これは中国のウェブサイトで見つけました。OpenALを使用してCMSamplerBufferRefのデータを読み取ることができるとのことです。プロジェクトでコードを試しましたが、ファイルを使用したOpenALは非常に楽しいため、オーディオを使用したOpenALとAvCaptureSessionは連携できないようです。誰かがそれで私を助けることができますか?????