問題タブ [cmsamplebufferref]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
uiimage - CIImage を CMSampleBufferRef に変換する方法
私は AVCapturesession を使用してビデオを録画しています。私は CMSamplbufferRef の形式で、ディドレシブ サンプル バッファ メソッドで受信しています。それを CIImage に変換し、いくつかの変更を加えました。今、その CIImage を CMSampleBufferRef に変換したいのですが、誰か助けてください。私はたくさんブラウジングしましたが、ここで見つけられるといいのですが、これに対する答えが見つかりませんでした。
ios - NSData を CMSampleBufferRef に変換する
NSData から CMSampleBufferRef を作成する方法はありますか? NSData オブジェクトも、以前は CMSampleBufferRef から構築されていました。AVFoundation を使用してライブ カメラから取得した CMSampleBufferRef フレームを (NSData として) 保存し、(NSData オブジェクトを CMSampleBufferRef に変換することによって) CMSampleBufferRef フレームを使用してビデオを作成できるようにするため、この変換が必要です。
前もって感謝します...
ios7 - AVAssetWriter は常に AVAssetWriterStatusFailed ステータスになっています
私の目標は、リアルタイムでカメラ入力にいくつかのフィルターを適用することです。それを段階的に行うために、AVFoundationでカメラから入力を取得してビデオを記録し、カメラロールに保存しようとしています。試してみましたが、何らかの理由で AVAssetWriter が常に AVAssetWriterStatusFailed になっているため、appendSampleBuffer: メソッドは常に失敗しました。私のエラーはどこですか?誰かが私を助けることができますか?
ありがとう!
ViewController.h
ViewController.m
ios - ビデオ キャプチャ: iOS 6 でフレームが破棄される
AVFoundation フレームワークを使用して、AVCaptureSession でビデオをエンコードしています。
ビデオとオーディオは、ios7 (iPAD) では正常に記録され、カメラ ロールに保存されますが、私の ios 6 (iPOD TOUCH) では保存されません。
次のコードは、オーディオとビデオの AVAssetWriterInput にサンプル バッファーを追加します。
iPOD、つまり iOS 6 でキャプチャされたフレームのほとんどは、次のコードを使用して破棄されているという結論に達しました。
助けてください。私はここで立ち往生しており、先に進むことができません。
いくつかの解決策を提案するか、少なくともこれらの状況に関する貴重な考えと仮定を教えてください.
よろしくお願いします。
ios - コア イメージ - CMSampleBufferRef で透明なイメージをレンダリングすると、その周りに黒いボックスが表示されます
AVFoundation の AVCaptureVideoDataOutput を使用して録画しているビデオに透かし/ロゴを追加しようとしています。私のクラスは sampleBufferDelegate として設定され、CMSamplebufferRefs を受け取ります。すでにいくつかのエフェクトを CMSampleBufferRefs CVPixelBuffer に適用し、それを AVAssetWriter に戻しています。
左上隅のロゴは、透過 PNG を使用して配信されます。私が抱えている問題は、ビデオに書き込まれると UIImage の透明部分が黒くなることです。私が間違っていることや忘れている可能性があることを知っている人はいますか?
以下のコード スニペット:
CIContext が CIImages アルファを描画していないようです。何か案は?
ios - CMSampleBufferRef のスケーリングとトリミング
AvFoundation と AVCaptureVideoDataOutputSampleBufferDelegate を使用してビデオを録画しています。
録画中のビデオにズーム機能を実装する必要があります。次のデリゲート メソッドを使用しています。
AVAssetWriterInput に追加する前に、後でテキストと画像を追加する必要があるため、ビデオ フレームを取得するためにこれを使用しています。
ズームを実行すると考えることができる唯一の方法は、デリゲート メソッドから取得した「(CMSampleBufferRef)sampleBuffer」をスケーリングしてトリミングすることです。
これについて私を助けてください。「CMSampleBufferRef」をスケーリングおよびトリミングする方法を知る必要があります。
objective-c - AVCaptureSession から iPhone ヘッドフォンのオーディオを監視する方法は?
ビデオのキャプチャ前とキャプチャ中に、ヘッドフォンでオーディオを監視できるようにしたいと考えています。
ビデオとオーディオをキャプチャするためのAVCaptureSession
セットアップがあります。
私の考えは、これをフックしてAVCaptureAudioDataOutput
インスタンス化し、プロトコルを実装するクラスでAVCaptureSession
を処理することです。CMSampleBufferRefs
AVCaptureAudioDataOutputSampleBufferDelegate
しかし、そこからオーディオをヘッドフォンにルーティングする方法がわかりません。
これを行うための最も簡単な方法は何ですか (最高レベルのフレームワーク、一般的なアプローチ)?
ios - CMSampleBuffer を UIImage に変換する
CMSampleBuffer を UIImage に変換する関数 (Apple ドキュメントのコード) を次に示します。
UIImageView を使用して UIImage を視覚化しようとすると、何も得られません。
何か案は?