問題タブ [ffserver]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
streaming - ローカルソースのウェブカメラ ストリームをファイルに高解像度で保存し、それを低解像度でストリーミングするように ffserver を説得するにはどうすればよいですか?
VPN経由でアクセスできるリモートLinuxマシンがあり、これにはUSB Webカメラがあります。これをビデオ会議に使用したいのですが、アーカイブ用にストリームを保存したいとも考えています。
ストリーミングの帯域幅は限られているため、ストリーミングされたコンテンツをキャプチャしようとするのではなく、ウェブカメラと同じマシンでストリームをキャプチャし、事後的に rsync する方が理にかなっていますが、これは必然的に低品質になります.
これを達成するために ffmpeg と ffserver を使用しようとしていますが、ほとんど成功していません。インターネット上の記事のほとんどは、ウェブカメラのストリーミング、またはリモート ストリームの再ブロードキャストのいずれかを扱っています。「my_addr->sin_family = AF_INET;」が欠落しているため、ffserver を再コンパイルする必要があることがわかりました。git で修正されて以来、使用していた ffserver.c のバージョンで。
使用しようとしている ffserver.conf は次のとおりです。
これを起動すると、次のエラーが表示されます。
十分に公平ですが、これはドキュメントで暗示されているものではありません。ディレクティブを次のように変更します。
ffserver が起動し、ffmpeg が接続するのを待っているように見えます。ただし、次のコマンドで ffmpeg を起動すると、次のようになります。
次に、Web カメラが点灯し、ffserver がメッセージで接続を確認します。
しかし、数秒後に次のエラーが表示されます。
他のさまざまな形式 (mpeg、mpegts、avi) とコーデック (mpeg1video、mpeg2video、mpeg4) を試しましたが、すべて成功しませんでした。
さらに、ffserver はストリーミング用に入力フォーマットをより低い解像度に再エンコードできるという印象を受けましたが、ストリームの解像度がフィードの解像度と一致しない場合、解像度が一致しないというエラーが発生します。
これを正しく機能させることができた人はいますか?このようなことができるvlcについて読んだことがありますが、vlcコマンドラインはほとんど侵入できません。
ありがとう!
ドミニク
ubuntu - ffserver: bind(ポート 8090): アドレス ファミリはプロトコルでサポートされていません
自分でUbuntuサーバーffserverにインストールし、デフォルトの構成で実行しようとすると、次のエラーが発生します:
bind (ポート 8090): プロトコルでサポートされていないアドレス ファミリ
アドレス(8082、8083)を変更しようとしましたが、うまくいきません:(
何か提案はありますか?
linux - 任意のネットワークへの FFSERVER ストリーミング
私のffserverはサブネットマシンで構成されているため、ffserverを使用してローカルネットワークから任意のネットワークにメディアファイルをストリーミングする方法はありますか。
現在、LAN(ネットワークに接続されている)上のマシンのみがhttp://localhost:8090/stream.mjpgを使用してファイルを表示できますが、外部または任意のネットワークからもアクセスできるようにしたい彼らが私のマシンアドレスを提供した場合。誰かがこれについて私にいくつかのアイデアを提供できますか.
ありがとう!
ffmpeg - Darwin Streaming Server の ffmpeg SDP ファイル
モバイル デバイスでウェブカメラのライブ ビデオ フィードを表示するストリーミング サーバーを作成しています。
私は ffmpeg 、 VLC 、 DSS の使用を検討し、次の設定を行いましたが、フレームはスキップされました:-
video4linux2 > ffserver > VLC トランスコーディング > DSS
(RAW から ffserver) > (SDP リンクへの出力) > (SDP ファイルへの SDP リンク) > (SDP ファイルからモバイルへのライブ ストリーミング)
後で VLC をテストしたところ、ネットブック (Intel Atom N480) では多くのフレームがスキップされるため、非常に非効率的で遅いことがわかりました。
DSS は、/usr/local/movies (デフォルト) から SDP ファイルをストリーミングできます。
同時に、ffmpeg の ffserver モジュールはライブ フィードを SDP リンク (SDP ファイルではない) にストリーミングできます。
私の要件は、ストリーミング用にこの DSS を渡すために、DSS の /usr/local/movies ディレクトリに SDP ファイルを作成する必要があることです。
したがって、ffmpeg から sdp ファイルを作成する方法、または SDP リンクから SDP ファイルを作成する方法 (VLC のトランスコーディングを使用せずに)。
どうやってするか ?
ffmpeg - how to restream rtsp h264 as "live dvr" for iOs using ffserver?
I would like to grab an existing stream from an IP-Camera delivering h264 encoded rtsp stream and restream it for iPhone/Ipad, where the user would have the opportunity to jump back in time for aprox. 1 minute. And later jump back to the "live" feed.
Actually I would like to do the same as in wowza (http://www.wowza.com/addons/wowza-ndvr-addon) but with ff** software.
Thank you for all your hints!
streaming - ffserver を介して 3gp メディア コンテンツをモバイル デバイスにストリーミングする
FFserver を使用して 3gp コンテンツをモバイル デバイスにストリーミングしたいと考えています。ffserver には.ffm
形式の入力フィードが必要であることを理解しています。この形式が何なのかわかりません。ffserver は 3gp コンテンツのストリーミングをサポートしていますか?
ffmpeg - RTSP用にFFserverを構成できません
私はストリーミングの世界に少し慣れていないので、ちょっと馬鹿げた質問をするなら許してください。
事前に録音したファイルをFFserver経由でRTSP経由でストリーミングしようとしています。
私の設定ファイルは:
サーバーを起動すると、次のログが表示されます。
そして今、私のVLCクライアントからURLを入力しようとしています:rtsp://xxx.xxx.xxx.xxx:8554 / test.sdp
しかし、何が起こるかというと、ffserverに応答がありません。
何が問題なのかわかりません。前もって感謝します。
ffmpeg - ffserver を使用して RTSP 経由で MP4 ファイルからストリーミングする
これまでのところ、ffserver を使用して RTSP 経由で mp4 ファイルをストリーミングしようとしています。ffmpeg からフィードせずに、ファイルから直接ストリーミングしたいだけです (トランスコーディングは必要ありません)。しかし、私はそれをmpgビデオで動作させました。
これが私のffserver構成ファイルです:
ffserver を起動すると、ログ出力に基づいてすべて問題ないようです。
最後に、サーバーをテストするために ffplay を実行すると、mpg ファイルではすべて正常に機能しますが、mp4 では機能しません。
何が欠けているのか本当にわかりません。ファイルからのストリーミングが壊れているという公式ドキュメントを読んだところです。それが最新かどうかよくわからないので、ここで試してみることにしました。
ヘルプや提案はありますか? 代替案?
ffmpeg - ビデオストリーミング用のraspberry piでのffmpeg設定またはffmpegの代替
16 GB SD カードで raspbian wheezy を実行している Raspberry Pi (モデル B) があります。また、USBに32GBのフラッシュストレージが接続されています。そのフラッシュ ストレージからイーサネット経由でビデオ (h264 でエンコードされた mp4 ファイル 1280x720) をストリーミングしようとしています。
私はffmpeg + ffserverを使用しています。ffserver.conf は次のとおりです (関連部分):
ffserver を起動し、次のコマンドで ffmpeg を呼び出します。
そして、私はせいぜいfps 3-5を取得しています。当然、別のコンピューターでストリームを表示しようとすると、非常に途切れ途切れになり、事実上使用できなくなります。
いくつかの設定がありませんか?それとも、ffmpeg のように CPU だけでなく GPU を活用する別のストリーミング ソリューションがあるのでしょうか? 他のボードに関する提案も受け付けています (例: pandaboard? または複数の RPi のクラスタリング?)。また、出力形式についても柔軟に対応しています。
ffmpeg - 複数のffmpegストリームを単一の4x4コラージュに組み合わせる方法は?
16個のビデオキャプチャカードチャネルが入ってくるサーバーがあり、ffmpegでストリーミングしたいのですが、16個の固有のチャネルの4x4コラージュである別のストリームを出力することは可能ですか?
編集:有効な回答がまだ提出されていないため、報奨金を追加します-16のライブチャネルの4x4グリッドを生成するコードを表示できる最初の報奨金に報酬を与えます(入力デバイスはhttp:// localhost:8090 / x.mpgです)ここで、x =数値0〜15、MPEG1VIDEO形式の352x288ビデオ、24〜30FPSのYUV420Pカラー)-またはそのソリューションにつながるコード-出力はhttp:// localhost:8090/all.mpgにあります。 1408x1152mpgのライブストリームになります。