問題タブ [cmsamplebuffer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
swift - RPScreenRecorder のキャプチャ開始で画面記録を保存する
RPScreenRecorder.shared().startCapture を使用して、画面の記録を firebase に保存しようとしています。AVCapture からビデオを保存する方法は知っていますが、CMSampleBuffer を処理してファイルを作成し、firebase に保存する方法がわかりません。これに関するドキュメントはまだ見つかりません。メソッド呼び出しは次のとおりです。
正しい方向を指されても役に立ちますが、ビデオとして再生できるファイルとして THE sample BUFFER を保存する方法がわかりません。
ios - フロントカメラから UIImage への CMSampleBuffer
CMSampleBuffer から UIImage を作成しようとしています。次のコードは、背面カメラからのサンプル バッファでは正常に機能しますが、前面カメラでは機能しません。前面カメラが使用されている場合、CGContext は初期化に失敗します。つまり、CGContext コンストラクターは nil を返します。正しいビットマップ情報を使用する必要があると思いますが、非常に多くの組み合わせがあります。
「CGBitmapContextCreate: 無効なデータ バイト/行: 8 整数ビット/コンポーネント、3 コンポーネント、kCGImageAlphaPremultipliedFirst の場合、少なくとも 2560 にする必要があります。」というエラーが発生しました。