ビデオカメラとオーディオマイクをストリーミングしたいと思っています。を使用してffserver
。
ffserver
そのようなことができると言っていますが、実際のソースが見つかりませんか?
どなたかご存知でしたら、作り方を教えていただけないでしょうか?
次のリンクを参照してください。
以下は私のテスト環境の構成です:
ffserver 設定 [/etc/ffserver.conf]
HttpPort 8090
RtspPort 5554
HttpBindAddress 0.0.0.0
MaxClients 1000
MaxBandwidth 10000
NoDaemon
<Feed feed1.ffm>
File /tmp/feed1.ffm
FileMaxSize 5M
</Feed>
<Stream test.mpeg4>
Feed feed1.ffm
Format rtp
VideoCodec mpeg4
VideoFrameRate 15
VideoBufferSize 80000
VideoBitRate 100
VideoQMin 1
VideoQMax 5
VideoSize 352x288
PreRoll 0
Noaudio
</Stream>
次のように ffserver を実行します。
ffserver -d
Web カメラからのビデオ キャプチャを開始します。
ffmpeg -r 25 -s 352x288 -f video4linux2 -i /dev/video0 http://localhost:8090/feed1.ffm
これで、任意の rtsp クライアントを使用してストリームを再生できます。私の例では、ffplay を使用します。
ffplay "rtsp://localhost:5554/test.mpeg4
この構成をラップトップでテストしました。そして、それはうまくいきます!