問題タブ [live-streaming]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - JAVA でストリーミングするための red5 接続パラメーターをネゴシエートする方法
指定した red5 インスタンスに RTMP ストリームを送信するシン ブラウザ クライアント (Java 上) を作成しています。また、RTMP Researcher を使用して、クライアントとサーバーの間で発生するトラフィックとイベントを監視しています。
これが私が注意したことです: red5 インスタンスとクライアントの間で交換されているオプションを含むマップがあることは明らかです。ここで見ることができます:
(直接リンク: http://img716.imageshack.us/img716/661/newbitmapimagelb.png )
私が疑問に思っているのは、クライアント側でこのマップを取得し、パラメーターの一部を変更するか、単にそれらを調べるプログラムによる方法があることです。
編集:
こんな感じで接続しています
connect ( host, port, app, callback );
. 他の接続メソッドにも optionsMap が引数として含まれているため、いくつかのデフォルト パラメータを一緒に送信していると思います。そのような optionsMap に入れることができる値と、それらのリストをどこで取得するのか疑問に思っていましたか?
macos - MacBook Pro (統合された iSight カメラ) の OSX Snow Leopard の /dev/video0 に相当するものは何ですか?
ffserver と ffmpeg を使用して、ウェブカメラのライブ ビデオ ストリームを実行しようとしています。ネット上でいくつかのリソース (#1 と #2) を見つけましたが、どちらも多かれ少なかれ同じことをしています。
OS X 10.6.5 を実行している MacBook Pro を使用しています。Web カメラは iSight 内蔵カメラです。/dev/ を調べても、/dev/video* に似たものが見つからないため、iSight カメラがマウントされている場所と、それを ffmpeg コマンドでどのように参照すればよいでしょうか。
ffmpeg -r 15 -s 320x240 -f video4linux -i /dev/video0 http://localhost:8090/webcam.ffm
何か案は?
- dmnet.bitacoras.com/archivos/software/streaming-de-una-webcam-con-ffmpeg.php
- ubuntuforums.org/showthread.php?t=665607
c++ - C/C++ オープンソース RTMP ストリーミング サーバーはありますか?
C/C++ オープンソース RTMP ストリーミング サーバーをご存知ですか?
iphone - iPhoneがicecastストリーミングラジオから曲名を抽出
アイスキャストストリーミングラジオから曲名を抽出したいと思っています。icy-genre、icy-namenのものを取得しています。曲名ではありません。ストリームから抽出できますか?
iphone - ライブストリームTVのURLのサンプル?
アプリでライブストリームビデオを再生したい。Appleが受け入れた形式のサンプルまたは無料のTVチャンネルURLはありますか?
streaming - ビデオストリーミングとインタラクション用のプログラムが必要です
次のことができるプログラムが必要です。
1) デスクトップ pc で Web カメラを記録する 2) サーバー上で実行されている別のプログラムにビデオとオーディオをストリームとして送信する 3) サーバー上のプログラムは「プロキシ キャッシャー」のように動作し、ライブ ストリームを要求するクライアントに送信します (帯域幅の理由からサーバーが必要です) 4) どのクライアントも、ライブ ストリームを再生できる Silverlight/Flash アプレットになります (RTSP かその他かは関係ありません) 5) クライアントは、Silverlight/Flash 内でチャットできる必要がありますアプレットとポーズの質問がサーバーに送り返され、Web カメラの記録を開始したデスクトップ PC に送り返されます。デスクトップ pc もチャットして応答できる必要があります。
かなり複雑なアプリケーションのように思えますが、私のニーズに合うかもしれない漠然と似たものをご存知ですか?
audio - directshow グラフでのオーディオ サンプルのタイムスタンプの設定
AC3 オーディオをデコードするために、directshow オーディオ デコーダ フィルタを開発しています。フィルターはライブ グラフで使用され、TS マルチキャストをデコードします。demuxer (mainconcept) は、分離されたオーディオ データを提供しますが、サンプルのタイムスタンプは提供しません。
オーディオの正しいタイムスタンプを取得/計算するにはどうすればよいですか?
iphone - HttpLiveStreamビデオコンテンツ
AppStoreでiPhone用のアプリケーションを公開しようとしています。しかし、アップルは私のアプリケーションを拒否しました。その理由は、メディアコンテンツを使用する9.4アプリケーションで、10分以上はHTTPライブストリームを使用する必要があるためです。
私のアプリケーションでは、多くのサーバーからのビデオを使用しています。「http://video.teknomart.com.tr/3-13-2.mp4」のように
メディアプレーヤーコントローラーを使用して、ビデオを再生します。initwithFileURLメソッドを使用します。しかし、httpライブストリームでの使用方法がわかりません。http://developer.apple.com/library/ios/#documentation/NetworkingInternet/Conceptual/StreamingMediaGuide/Introduction/Introduction.htmlを調べまし た。そのリンゴは私を参照しました。しかし、私は正確に理解していませんでした。
c - C プログラムを使用してビデオをライブ ストリームする方法。HTTP 応答は何ですか? 可能であれば、チャンクエンコーディングを使用するにはどうすればよいですか?
(ライブストリーミングに成功したため、実際の質問は編集されましたが、クライアントとCコードの間の通信がわかりません。)
さて、ついに C コードを使用してライブ ストリーミングを行いました。しかし、ここで「HTTP」がどのように機能するのか理解できませんでした。Wireshark を使用して、リンクhttp://www.flumotion.com/demosite/webm/でブラウザとサーバー間の通信を調べました。
クライアントが最初にこの GET リクエストを送信することがわかりました
この get 要求に対して、サーバーはこの応答を送信して応答します
その後、サーバーはクライアントが切断されるまでデータを送信します。クライアントは一定量のデータを受信すると切断します。その後、CLIENT は新しいポートでサーバーに接続し、同じ GET 要求がサーバーに送信されます。サーバーは再び同じ応答を返しますが、今回はクライアントは切断せず、サーバーが切断されるまで継続的にパケットを読み取ります。上記の動作を再現するサーバー ソケットを持つ C コードを作成しました。(wireshark、flumotion、stackoverflow に感謝)
しかし、しかし、クライアントが2つのリクエストを送信する必要がある理由と、最初のリクエストでリセットして新しいポートで同じリクエストを再度送信する理由と、今回はライブストリーミングされているかのようにデータをリッスンする理由を理解できませんでした. また、チャンク エンコーディングを使用してライブ ストリームを配信する方法もわかりません。
同じことの詳細がここにあります: http://systemsdaemon.blogspot.com/2011/03/live-streaming-video-tutorial-for.html
そしてここhttp://systemsdaemon.blogspot.com/2011/03/http-streaming-video-using-program-in-c.html
私を助けてください。前もって感謝します。
flash - INVALID LIVE ストリームを再生しようとすると、Flash は「NetStream.Play.StreamNotFound」エラーを生成しますか?
NetStream.play("invalid-live-stream-url") を使用して、無効なライブ ストリームを再生しました。他の引数はデフォルトを使用しています。たとえば、start = -2、len = -1 です。
メニューには、デフォルトの「start」と「len」を使用して「NetStream.play」を呼び出すと、「ライブ ストリームが利用できなくなるまで再生します。指定された名前のライブ ストリームが見つからない場合、Flash Player は記録されたストリームを終了するまで再生します。」
しかし、ライブ ストリームと同じ名前のストリームがサーバーに記録されておらず、予期した「NetStream.Play.StreamNotFound」エラーが発生しませんでした。