ヘッドレス Ubuntu サーバー (Maverick 10.10 を実行) に接続された Web カメラからビデオとオーディオをストリーミングしようとしています。WebM 形式 (VP8 ビデオ + OGG) でストリーミングできるようにしたい。帯域幅は限られているため、ストリームは 1Mbps 未満である必要があります。
FFmpeg を使ってみました。次の方法で、Web カメラから WebM ビデオを録画できます。
ffmpeg -s 640x360 \
-f video4linux2 -i /dev/video0 -isync -vcodec libvpx -vb 768000 -r 10 -vsync 1 \
-f alsa -ac 1 -i hw:1,0 -acodec libvorbis -ab 32000 -ar 11025 \
-f webm /var/www/telemed/test.webm
ただし、あらゆる種類の vsync オプションと async オプションを試してみたにもかかわらず、オーディオの同期が取れなくなったり、Benny Hill スタイルの早送りビデオと一致する高速オーディオを使用したりすることができます。また、これを ffserver で実際に動作させることもできませんでした (test.webm パスとファイル名を関連するフィード ファイル名に置き換えることにより)。
目的は、オープン ソース コンポーネントのみを使用して、狭い帯域幅で、最新のブラウザーで表示可能なライブのオーディオ + ビデオ フィードを取得することです。(その MP3 形式の法的チャフはありません)
したがって、私の質問は次のとおりです。Linux経由で同期オーディオを使用してWebカメラからWebMをストリーミングするにはどうすればよいですか? どのようなソフトウェアを使用していますか?
FFmpeg 経由で同期オーディオを使用して Web カメラから webm をエンコードすることに成功しましたか? もしそうなら、どのコマンドを発行しましたか?
FFmpeg + FFserver に固執する価値はありますか、それとも他のより適切なコマンドライン ツールがありますか (たとえば、エンコーディング用に構築されていないように見える VLC)?
Gstreamer + Flumotion のようなものは、コマンド ラインから構成できますか? もしそうなら、flumotion docはコマンドラインの詳細がかなり少ないので、コマンドラインのドキュメントはどこにありますか?
前もって感謝します!