2

libavライブラリを使用するビデオストリーミングサーバーとクライアントアプリケーションを作成しようとしています。

サーバーに実行してもらいたいのは、ビデオをフレームごとに読み取り、フレームをパケットに入れてから、クライアントに送信することです。もちろん、クライアントはパケットからフレームを読み取ることができなければなりません。

これどうやってするの?利用できるチュートリアルはありますか?

Ubuntu11.04マシンを使用しています。

4

1 に答える 1

2

私は今同じ問題に取り組んでいます。あなたが見たいと思うかもしれない何かはlive555ライブメディアライブラリです。 http://www.live555.com/liveMedia/

そのライブラリを使用して、mp3、h264ビデオ、mpegなどをストリーミングできます。また、UDPとRTSPを使用するため、ビデオのリアルタイム配信に非常に便利です。ffmpegに含まれているFFPlayアプリケーション(特にlibavformatを含むセット全体)はRTSPストリームを再生できます。あなたは次のようなことをします

avformat_open_input(&pFormatCtx、 "rtsp://192.168.1.1/someFile.264"、NULL、&optss)

ストリーミングRTSPの例を変更して、エンコーダー出力(x264など)をプラグインし、エンコードするとすぐにコンテンツをライブで送信できます。(FAQ(http://www.live555.com/liveMedia/faq.html)を参照してください。

事前に録画されたビデオがある場合は、はるかに簡単です。ビデオファイルを提供するだけで、作業が自動的に行われます。

于 2012-03-21T21:41:30.160 に答える