libavライブラリを使用するビデオストリーミングサーバーとクライアントアプリケーションを作成しようとしています。
サーバーに実行してもらいたいのは、ビデオをフレームごとに読み取り、フレームをパケットに入れてから、クライアントに送信することです。もちろん、クライアントはパケットからフレームを読み取ることができなければなりません。
これどうやってするの?利用できるチュートリアルはありますか?
Ubuntu11.04マシンを使用しています。
私は今同じ問題に取り組んでいます。あなたが見たいと思うかもしれない何かはlive555ライブメディアライブラリです。 http://www.live555.com/liveMedia/
そのライブラリを使用して、mp3、h264ビデオ、mpegなどをストリーミングできます。また、UDPとRTSPを使用するため、ビデオのリアルタイム配信に非常に便利です。ffmpegに含まれているFFPlayアプリケーション(特にlibavformatを含むセット全体)はRTSPストリームを再生できます。あなたは次のようなことをします
avformat_open_input(&pFormatCtx、 "rtsp://192.168.1.1/someFile.264"、NULL、&optss)
ストリーミングRTSPの例を変更して、エンコーダー出力(x264など)をプラグインし、エンコードするとすぐにコンテンツをライブで送信できます。(FAQ(http://www.live555.com/liveMedia/faq.html)を参照してください。
事前に録画されたビデオがある場合は、はるかに簡単です。ビデオファイルを提供するだけで、作業が自動的に行われます。