問題タブ [ffserver]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ffmpeg - http の代わりに rtmp をサポートするように ffserver を構成するにはどうすればよいですか?
ffmpeg と次のコマンドを使用して、カメラから画像を取得します。
そして他のマシン(上記のIPを使用)では、次の構成ファイルでffserverを実行しています:
それは機能し、http を介して flv でビデオをストリーミングできます...しかし、今は rtmp を使用したいと考えています。video.jsを使用したかったのですが、最新バージョンではライブビデオをサポートしていないようです... mediaelement.jsを見つけましたが、そこでライブコンテンツをストリーミングするには rtmp プロトコルが必要なので、それが私の質問の原因。ご協力いただきありがとうございます
ffmpeg - 再エンコードせずに Logitech C920 から H.264 をストリーミングする FFServer
別のサーバー (CentOS 7.1) で実行されている ffserver を介して Odroid デバイス (ロボット) から Logitech C920 Web カメラからネイティブ .H264 Web カメラ フィードをリアルタイムでブロードキャストしようとしています。
ブラウザでリアルタイムのビデオ フィードを使用すること自体が課題であるため、今のところ、Odroid で Logitech C920 ウェブカメラを取得して、ネイティブの .H264 リアルタイム ビデオ フィードを ffserver 経由で mp4 としてストリーミングし、必要なくユーザーに提供しようとしています。プロセスでビデオを再エンコードします。明らかに、CPU 時間がかかりすぎてリアルタイムのビデオ フィードが失われるため、再エンコードは避けたいと考えています。後で、コンテナを .flv または rtp に変更する必要があるかもしれません。これにより、ブラウザからリアルタイムで再生できるようになります。ハードウェアで .H264 エンコーディングを実行できるので、Logitech C920 ウェブカメラを使用しています。(ファイルを直接保存することでテストされており、動作しますが、Linux カーネルのバグに関連するよく知られた「ジャーキネス」の問題を除きます: http://sourceforge.net/p/linux-uvc/mailman/message/33164469/、
問題は、ただし、ffmpeg-ffserver を設定すると、ffserver が画像に表示されるとすぐに、フィードが再エンコードされます-h264(ネイティブ)から h264(libx264) にさえ-Odroid デバイスで CPU の 100% を占有し、導入しますビデオフィードの大幅な遅延。
以下は私のffmpegとffserverの設定です。
.H264 フィードを ffserver にストリーミングする Odroid デバイスからの ffmpeg
そして、ffserver を実行しているサーバーの /etc/ffserver.conf:
上記の ffmpeg セクションで見たように、Odroid デバイスで CPU を最大化する再エンコードが行われています。
ffserver構成のVideoCodec値をlibx264に直接設定しようとしたり、ffmpegで-re設定を試したり、ffmpegの別の構文を使用したりしましたが、何も役に立ちません。Reconding は常に存在するため、ビデオ ストリームをそのままブロードキャストするためだけに ffmpeg-ffserver を作成することはできません。
(Odroid 上とサーバー上の) 両方の ffmpeg はソースから昨日 (2015-06-09) コンパイルされたので、最新 (かつ同じ) バージョンです。
何か案が?
編集: 要約すると、問題は次のとおりです: 再エンコードせずに、Logitech C920 ウェブカメラからの h264(ネイティブ) フィードを ffserver でブロードキャストする方法が見つかりません。
internet-explorer - mp4 に間違った MIME タイプを提供する ffserver
webm 側 (Chrome) で正常に動作する ffserver からストリーミングしているビデオ ストリームがありますが、少なくとも Internet Explorer では h264/mp4 側は動作しません。
Internet Explorer で次のエラーが表示される:「MEDIA12899: AUDIO/VIDEO: Unknown MIME type」
フィドラーで何が起こっているかを見ると、次を含むヘッダーを使用しているようです。
コンテンツ タイプ: アプリケーション/mp4
そのタイプはvideo/mp4であってはなりませんか?
ffserver では、この特定のストリームは次のように構成されます。
ffserver によって設定されたヘッダーを強制または修正して (おそらく) MSIE を満足させる方法を知っている人はいますか?
ffmpeg - ffmpeg ストリーム rc バッファ アンダーフロー
現在、オープンソース ツール ffmpeg / ffserver を使用して画面共有プラットフォームをセットアップしています。共有の開始時には、すべて問題ありません。約 1 分半後、出力に次の例外が表示されます。
[flv @ 0x3a47aa0] rc buffer underflow
[flv @ 0x3a47aa0] max bitrate possibly too small or try trellis with large lmax or increase qmax
lmax と qmax を非常に高く設定しようとしましたが、何も変わっていません。さらに、ビットレート、バッファサイズ、ビットレートを上げてみました。
ffmpeg で次のコマンドを使用します。
ffserver の構成ファイルは次のとおりです。
他のストリーミング フォーマットも可能ですが、ライブ ストリーミングでどのフォーマットが可能かはわかりませんでした。
nginx - HLS ストリームの転送 - 必要なソリューション
FFmpeg で HLS/AppleHTTP ストリームを受信しています。ソース ストリームは次のようになります。
この種のストリームを FFmpeg でストリーム サーバーに転送する必要があります。私の問題は、エンコードせずにFFmpegを使用してCPU使用率が高い方法です(-ビデオコピー-オーディオコピーだと思います)。次に、ストリームを受信して HLS ストリームとしてユーザーに送信するのに最適な (CPU 使用率が低い) ストリーミング サーバー ソフトウェアはどれですか?
drupal - ffserver は drupal と互換性がありますか?
ffmpeg はコマンド ライン エンコーディング ツールですが、ffserver はライブ ブロードキャスト用のマルチメディア ストリーミング サーバーです。これにより、HTTP、RTP、および RSTP でストリーミングできます。
最初: ビデオを変換してすべて再生するために、drupal でビデオ モジュールを使用しました。このモジュールには、ffmpeg を使用するための非常に構成がありますが、ffserver を使用するための構成はありません。
2番目:ビデオを変換するための非常に重いプロセスがあるため、特定のサーバーでffmpegを使用しました。
今、私はこのことについて知りたいです:
1-これには、ffmpegおよびffserverを使用するためのモジュールが存在します。
2-このモジュールが存在する場合、1つのサーバーでffmpegとffserverを使用するのが正しいですか、それともffserverとffmpegサーバーを分離する必要があります。