ウェブカメラをストリーミングするためのアプリケーションを作成しています。OpenCV を使用してカメラをキャプチャし、ffmpeg をエンコーダーとして、live555 をサーバーとして使用したいと考えています。ffmpeg からフレームを受信するエンコーダーをカプセル化するには、live555 に DeviceSource.cpp を実装する必要があることを知っています。ただし、これを行う方法の例はないようです。だから、DeviceSourceの実装に関するチュートリアルや例を誰かに教えてもらえますか。ありがとうございます。
質問する
1332 次
2 に答える
0
ここにあなたが何を求めているかの良い例があります:
https://www.imc-store.com.au/Articles.asp?ID=278
FFMPEG を使用して生の RGB フレームをエンコードし、その個別のフレームを Live555 に送信してストリーミングする方法を示す c++ VS2010 プロジェクトです。
VS2010 プロジェクトにはすべてのライブラリとインクルード ファイルが含まれているため、単に解凍し、VS2010 で .sln ファイルを実行し、コンパイルして実行するだけです。
また、VLC ソース コードは FFMPEG と Live555 の両方を実装しているため、それらのコードを参照して追加のポインタを確認できます。
幸運を!
于 2014-06-13T01:30:22.780 に答える
0
DeviceSource.cpp は、ライブ データを使用する Live555 FramedSource を実装する例です。DeviceSource.cpp ファイルを見て、コメントを読んでください。特に、 の次の行に注意してdeliverFrame()
ください。
u_int8_t* newFrameDataStart = (u_int8_t*)0xDEADBEEF; //%%% TO BE WRITTEN %%%
unsigned newFrameSize = 0; //%%% TO BE WRITTEN %%%
ここでデータを設定します。
于 2014-01-09T21:19:55.950 に答える