RGB フレーム (リアルタイム) データを Web 経由でビデオ ビデオ ストリームとしてブラウザ (chrome/firefox) に転送したいと考えています。
rgb -> yuv -> yv12 -> vp8 の変換が完了しました。vp8 ビデオをローカルで再生でき、見栄えも良いです。
他の「クライアント」がこれを見ることができるように、このデータを webrtc にフィードできるようにする必要があります。
これは実行可能ですか?
vp8 を webm ビデオ ファイルにラップするつもりでしたが、実際のファイルの長さは書きません。これは、リアルタイム ストリーミングであるため長さが分からず、ブラウザでタグを作成し、データのフィードを開始するためです。(私は以前に Theora でこれを行いました。「ストリーミングを偽造しました。確かに少し遅く、TCP でしたが、遅延はありました)。
または、データを webrtc にフィードします。APIがこのようなことを許可しているかどうかさえわかりません。少しハックする必要があるかもしれません。
要約: プロセス A は NxM RGB ビデオを作成し、それをバッファに書き込みます。プロセス B は、IPC を介してバッファを読み取り、それを VP8 にエンコードします。プロセス B は、これを webm または webRtc のいずれかで VP8 を使用してブラウザに送信します。