問題タブ [ffserver]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
configure - 実行中にffserverに別のストリームを追加する方法は?
FFmpeg でライブ ストリーミング WebM ビデオをセットアップしています。ffserver の構成ファイルは次のようにコーディングされます。
次に、次のコードを使用して ffserver を起動します。
ffserver が実行されているため、サーバーを再起動せずに別のストリームを追加する方法は?
html - マルチ Web カメラ ストリーミングの設定
現在、ウェブサイトから選択できるウェブカメラを介してすべてのオフィスを接続することを計画しています。したがって、セットアップは次のようになると思います。
VLC を使用して Windows から中央の ffserver にストリーミングする最初のテストを行いましたが、結果はかなり悪いものでした (1 ~ 2 フレームの後、ストリームが停止しました)。
クライアント/ウェブカメラ サイト (Linux または Windows) で使用できるストリーム ソフトウェア - サーバー側 (Linux) でストリームの収集と記録に使用できるソフトウェアについて何か提案はありますか?
ありがとう、
モリッツ
android - ffserverを使用してffmpeg経由でライブカメラビデオをストリーミングすることは可能ですか?
ffserverを使用してffmpeg経由でライブカメラビデオをストリーミングすることは可能ですか?
以下の流れを考えています
1.ffserver で ffmpeg をコンパイルしてビルドします。2. MediaRecorder を介してビデオを録画し、rtp 経由でストリーミングされる ffserver にフィードを直接送信します。
この方法で、エンコードされたオーディオとビデオのストリームを取得し、ffserver がそれを rtp 経由でストリーミングすると思います。反対側では、どのプレーヤーでもストリームを再生できます。つまり、VLC プレーヤーです。
ありがとう、Sureshkumar Menon
macos - ffmpeg を使用して isight でビデオを録画する
したがって、Linuxでffmpegを使用してWebカメラビデオを記録するには、次のようなものを使用できます...
しかし、Macではこれは機能しないので、Macでffmpegを使用してisightでどのように記録するのだろうかと思っていましたか?
調べてみたところ、できないという人が多かったのですが、これらの投稿のほとんどは本当に古いものなので、その後変更されたのではないかと思います。
video - 1 つのフィード ffmpeg で複数のビデオ ストリーム
以下のように、2 つの Web カメラからライブ ストリームを送信しようとしています。
利用可能なプレーヤーを使用して、両方のストリームを再生したいと考えています。VLC を使用してストリームを開くと、(/dev/video0 から) 1 つのストリームしか取得できません。コマンドは以下の通りです。
ここでは、自分のマシンで ffserver を実行し、localhost としてアクセスしようとしています。私のffserver設定は以下の通りです:
以下のコマンドを実行して 2 つのストリームをファイルに保存しようとすると、VLC プレーヤーの 2 つのインスタンスが取得され、両方のストリームが表示されます。
2 つのビデオ ストリームをファイルとして保存することはできますが、2 つのビデオ ストリームを 1 つの単一フィードで送信することはできません。同じことを達成するために私を助けてください。
よろしく
ffmpeg - プロトコルを使用して画像をストリーミングするための提案
ターゲットは、ユーザーが画像のストリームをサーバーに送信することです。サーバーは、クライアントにライブ連続ビデオとして表示するために、それらをメディア サーバーに転送する必要があります。
以下は実装するための考えです。大丈夫かどうか教えてください。
軽量のrtmpサーバーを使用して、ユーザーからの画像のストリームを受け入れます(これがrtmpを介して可能であるかどうか、およびそれが簡単かつ効率的に行われるかどうかを提案してください)
ffmpeg を使用して rtmp (またはその他の) URL を入力として使用し、それらの画像をストリーミングのために ffserver に送信します。(ここでも混乱しています。ffserverに画像が継続的に供給されている場合、画像が来ている限り、それらの画像をビデオとして表示できますか)
audio - h264 restream は、ffserver conf にオーディオがない場合に機能しますが、オーディオを追加しようとすると機能しません
カメラから h264 ビデオ ストリームを再ストリーミングしようとしています。conf ファイルに NoAudio がある場合、すべて正常に動作します。ただし、オーディオを追加すると、ビデオ ストリームも機能しません。誰もこれに遭遇したことがありますか?
ffmpeg -i rtsp:// * ** -s 320x240 -vcodec コピー -acodec コピー -s 320x240 -ab 64k http:// * :8091/feed1.ffm
video - FFMPEG と FFserver を使用してチャネル システムを作成する
インターネットでいろいろ調べましたが、答えが見つかりません。 と でチャネリング システムを作成できますFFMPEG
かffserver
? 私がやりたいことは、ユーザーがip address
自分のカメラを動的に追加して、(事前定義されたリストから) 再ストリーミングを開始できるようにすることです。別のインスタンスを開く必要がありますか、それとも ffserver にフィードを動的に追加できますか? それとも、これは実行可能なオプションではありませんか?
どんな助けでも大歓迎です、ありがとう。
ffmpeg - FFMpeg Ubuntu で「rtmp://url live=1」が機能しない
ubuntuで次のffmpegコマンドを実行しようとしています。
* ffmpeg -i "rtmp://IP/live/1234 live=1" -f flv rtmp://IP/live/1234_56
*
以前に ffmpeg に avserver (Libav) をインストールしました。live=1 の代替案を提案するか、提案を提供してください。