問題タブ [ffserver]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
4 に答える
90313 参照

iphone - HTTP ライブ ストリーミング、FFMPEG & FFSERVER、iPhone OS 3

iPhone OS 3 では、Apple はHTTP ライブ ストリーミングを導入しました。これにより、インターネットからのビデオのライブ ストリーミングが可能になります。私は現在、サーバーにフィードするウェブカメラを操作しており、ffmpeg によって flv ストリームに変換され、ffserver を使用してストリーミングされます。iPhoneがffmpegとffserverを使用して使用できるビデオストリームをセットアップする方法を知っている人はいますか? その場でほぼすべての形式に再エンコードできるはずです。

0 投票する
3 に答える
27929 参照

windows - Windowsでffserverを使用してシンプルなビデオストリーミングを行う方法は?

ここでサーバーを構成するためのチュートリアルを見つけましたhttp://www.organicdesign.co.nz/Simple_video_streaming_with_ffserver

しかし、それはLinux用です... Windowsでそのようなことを行う方法は?(実際のウェブカメラ付き)

0 投票する
1 に答える
6617 参照

ffmpeg - IP カメラからのライブ ストリーミングで ffmpeg を使用するにはどうすればよいですか

私はこれらすべてのテクノロジーの初心者であるため、私の質問は非常に基本的です。

内部ネットワークに接続された IP カメラがあります。

...Firefox または Internet Explorer でライブ ストリーミング ビューを表示します。

今、私はライブ ストリームをビデオに記録したいと考えています。

指定するパラメータはbegin_time、ビデオの 、 、 などですend_timeformat

どうすればこれを達成できますか?

ご指導ありがとうございます。

0 投票する
1 に答える
2340 参照

android - Android からのビデオ ストリーミング

Android デバイスからビデオをライブ ストリームしたい。ffserver (ffmpeg) をコンパイルして Android で実行できることがわかりました。Androidデバイスのカメラからビデオを取得し、リアルタイムでffserverに取得する必要があります。

何か案は?

よろしく、 MM

0 投票する
1 に答える
3398 参照

stream - FFserver: HTTP 認証で保護しますか? (アパッチ?)

Apache / HTTP 認証を使用して ffserver ウェブカメラ ストリームを保護する方法はありますか? おそらくある種のApacheプロキシ?

現在、LAN上のマシンのみがhttp://webcam/stream.mjpgを表示できるようにしていますが、ユーザー名/ pw(HTTP Auth、これはffserver には組み込まれていません)。

ありがとう!

0 投票する
0 に答える
1829 参照

macos - MacBook Pro (統合された iSight カメラ) の OSX Snow Leopard の /dev/video0 に相当するものは何ですか?

ffserver と ffmpeg を使用して、ウェブカメラのライブ ビデオ ストリームを実行しようとしています。ネット上でいくつかのリソース (#1 と #2) を見つけましたが、どちらも多かれ少なかれ同じことをしています。

OS X 10.6.5 を実行している MacBook Pro を使用しています。Web カメラは iSight 内蔵カメラです。/dev/ を調べても、/dev/video* に似たものが見つからないため、iSight カメラがマウントされている場所と、それを ffmpeg コマンドでどのように参照すればよいでしょうか。

ffmpeg -r 15 -s 320x240 -f video4linux -i /dev/video0 http://localhost:8090/webcam.ffm

何か案は?

  1. dmnet.bitacoras.com/archivos/software/streaming-de-una-webcam-con-ffmpeg.php
  2. ubuntuforums.org/showthread.php?t=665607
0 投票する
1 に答える
1240 参照

android - ffserver のドキュメントとサンプル コード

私は Android 2.2 でライブ ストリーミングを実験しているので、アプリケーションで ffserver と ffmpeg を使用しようとしています。Bambuser のビルドを使用して、ffmpeg を Android に移植することに成功しました。

そして今、私はその設定ファイルを通してffserverを使いたいと思っています。しかし、API の使用に関するドキュメントやサンプル コードはあまり見つかりませんでした。よく書かれたドキュメントやチュートリアルを入手する方法を知っている人はいますか?

ありがとう...

0 投票する
1 に答える
6782 参照

android - ffmpegを使用してRTP/UDPストリームをHTTPに変換します

ご存知かもしれませんが、AndroidはRTPの奇妙な実装を使用しています-それは低ビットレートのRTPストリームしか再生できません。一方、フルHDHTTPストリームを問題なく再生できます。

この問題の回避策を試しています。タイトルに記載されているように、ffmpegを使用してRTP/UDPストリームをHTTPに変換します。

私はすでにAndroid用のffmpegをコンパイルしましたが、ffserver.confの構成に問題があります。

  1. ffmpegで私が望むことを達成することは可能ですか?
  2. トランスコーディングは必要ありませんが、プロセッサ/メモリを大量に使用しますか?
  3. これらの構成を手伝ってもらえますか?

udp/rtpマルチキャストストリームを受信しました。

  • udp://@239.192.1.31:1234またはrtp://@239.192.1.31:1234-TVチャンネル

HTTPに出力したい:

よろしくお願いし
ます

0 投票する
2 に答える
36884 参照

tcp - ffserver / ffmpeg 使用時に TCP 接続が拒否される

Ubuntu 10.04LTS デスクトップで ffserver を使用しようとすると、「localhost:8090 への TCP 接続に失敗しました: 接続が拒否されました」というエラーが表示されます。

私は入力しています:

ffmpeg -f video4linux2 -s 640x480 -r 30000/1001 -i /dev/video0 -f avi -vcodec mjpeg -r 30000/1001http://localhost:8090/feed1.ffm

完全な出力は次のとおりです。

ただし、ffserverはリクエストを承認しているようです:

問題はどこだ?ffmpeg を正しく使用するにはどうすればよいですか?

0 投票する
2 に答える
11002 参照

streaming - WebM 形式の Ubuntu サーバーからの音声付きコマンドライン ストリーミング Web カメラ

ヘッドレス Ubuntu サーバー (Maverick 10.10 を実行) に接続された Web カメラからビデオとオーディオをストリーミングしようとしています。WebM 形式 (VP8 ビデオ + OGG) でストリーミングできるようにしたい。帯域幅は限られているため、ストリームは 1Mbps 未満である必要があります。

FFmpeg を使ってみました。次の方法で、Web カメラから WebM ビデオを録画できます。

ただし、あらゆる種類の vsync オプションと async オプションを試してみたにもかかわらず、オーディオの同期が取れなくなったり、Benny Hill スタイルの早送りビデオと一致する高速オーディオを使用したりすることができます。また、これを ffserver で実際に動作させることもできませんでした (test.webm パスとファイル名を関連するフィード ファイル名に置き換えることにより)。

目的は、オープン ソース コンポーネントのみを使用して、狭い帯域幅で、最新のブラウザーで表示可能なライブのオーディオ + ビデオ フィードを取得することです。(その MP3 形式の法的チャフはありません)

したがって、私の質問は次のとおりです。Linux経由で同期オーディオを使用してWebカメラからWebMをストリーミングするにはどうすればよいですか? どのようなソフトウェアを使用していますか?

FFmpeg 経由で同期オーディオを使用して Web カメラから webm をエンコードすることに成功しましたか? もしそうなら、どのコマンドを発行しましたか?

FFmpeg + FFserver に固執する価値はありますか、それとも他のより適切なコマンドライン ツールがありますか (たとえば、エンコーディング用に構築されていないように見える VLC)?

Gstreamer + Flumotion のようなものは、コマンド ラインから構成できますか? もしそうなら、flumotion docはコマンドラインの詳細がかなり少ないので、コマンドラインのドキュメントはどこにありますか?

前もって感謝します!