問題タブ [http-live-streaming]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - HTTPライブストリーミングからID3タグ情報を取得する
「httplive://REAL_URL/main.m3u8」を指定することで、Android から HTTP ライブ ストリーミング (HLS) ビデオ ストリームを再生できます。
AndroidでHTTPライブストリーミング(HLS)から時限メタデータを取得する方法はありますか? または特定のライブラリはありますか。
Androidには、MP3ファイルで機能する「MediaMetaDataRetriever」というパッケージがあります
iOS には、「TimedMetadata」というプロパティがあります。
ありがとう
android - Android での HTTP ライブ ストリーミングの時限メタデータ
Android 用の MPEG-2 トランスポート ストリーム (.ts ファイル) に存在する時間指定されたメタデータを読み取る方法または方法はありますか。
ただし、この機能は Apple iOS で利用できます。
よろしく、 S
iphone - WindowsでFFmpegを使用したマルチビットレートライブHLS
Windows上のiPhone用AppleHLSにライブストリームをエンコードしようとしています。私はさまざまなオプションを検討していましたが、wowzaはそれを実行できますが、私が見る限り、HLSのCDN配布をサポートしていません。それに加えて、それはたくさんのお金がかかります。
私が見つけたのはこのサイトでした:http ://www.espend.de/artikel/iphone-ipad-ipod-http-streaming-segmenter-and-m3u8-windows.html
これで、単一のビットレートストリームを簡単に設定できますが、私の目標は、適応型のマルチビットレートライブストリームです。出来ますか?VODコンテンツの場合、さまざまな品質を作成し、新しいm3u8でそれらにリンクすることで簡単に実現できますが、これはライブでどのように実行されますか?
もちろん、3つの高品質のライブストリームを設定してm3u8でそれらにリンクすることはできますが、この場合、どのようにしてそれらをGOPに合わせることができますか?
私の最初の考えは、1つのffmpegインスタンスですべての品質を作成し、それらの出力を新しいffmpegインスタンスに再ストリーミングすることでした。ただし、インスタンス間でローカルにストリーミングする方法が必要になります。それはできますか?
誰かがこれに対する素晴らしい解決策を持っているか、Windows上でライブHLSが可能な他のソフトウェアにリンクできるなら、私はどんな入力でもいただければ幸いです。
すてきな一日を!よろしくカール
iphone - HTTPライブストリームの使い方は?
私の1つのアプリは拒否され、それは言います。
We found that your app does not use the HTTP Live Streaming protocol, with a baseline stream of 64 kbps, to broadcast streaming video, as required by the App Store Review Guidelines.
私はほとんどすべてのものを検索しましたが、それでも私は混乱していて、について明確な見解を持っていませんHTTP Live Streaming
私は多くのドキュメントを読みましたが、どこから始めればよいのか、HTTPライブストリーミングツールや他のすべてのものをどのように使用するのかわかりませんでした。
誰かが私の混乱の明確な解決策を教えてもらえますか?
アプリでどのようHTTP Live Streamingに使用できますか?ビデオを追加するには
どうすればよいですか? segmentplaylist
助けてください..
誰かがこれで私を助けてくれるなら、それは大きな助けになるでしょう.. !!
前もって感謝します..!!
calayer - AVPlayer コンテンツを 2 つのビューに同時に表示する
大画面でのビデオ再生を制御する Mac 用の HTTP ライブ ストリーミング クライアントを作成しています。私の目標は、メイン スクリーンにコントロール UI を配置し、セカンダリ スクリーンにフル スクリーン ビデオを配置することです。
AVFoundation を使用して、ストリームを開き、コントロール UI からそのすべての側面を制御することに成功しました。現在、セカンダリ スクリーンでビデオを複製しようとしています。これが想像以上に難しい…。
コントロール画面には、AVPlayer からのビデオ コンテンツを表示する AVPlayerLayer があります。私の目標は、別の AVPlayerLayer を作成し、同じプレーヤーを送信して、両方のプレーヤーが 2 つの異なるビューで同時に同じビデオを再生できるようにすることでした。しかし、それは機能していません。
より深く掘り下げると、AVFoundation ドキュメントでこれを見つけました。
同じ AVPlayer オブジェクトを使用して、任意の数のプレーヤー レイヤーを作成できます。最後に作成されたプレーヤー レイヤーだけが実際にビデオ コンテンツを画面に表示します。
両方のビューでビデオを正しく表示する必要があるため、これは実際には役に立ちません。
同じ AVAsset から AVPlayerItem の新しいインスタンスを作成し、新しい AVPlayer を作成して新しい AVPlayerLayer に追加し、ビデオを表示することができますが、2 つの異なるプレーヤーが 2 つの異なるオーディオ ストリームの再生を生成しているため、それらは同期していません。同じストリームの異なる部分。
同じ AVPlayer コンテンツを 2 つの異なるビューに表示する方法について何か提案はありますか? おそらく、ある種のCALayerミラーリングのトリックでしょうか?
iphone - ビデオの分割に Media Segmenter を使用する方法は?
についてまだ非常に混乱している多くのドキュメントを読みましHTTP Live Streamingた。
しかし、私はまだ解決策を模索しています..そして、ビデオ.tsをffmpeg.
これで、ビデオを分割し、を使用してプレイリストを作成する必要があることがわかりましたmediasegmenter。しかし、どこにあるのか、それを使用してビデオを分割する方法
がわかりません。
私はこれに非常に慣れていないので、このばかげた質問で申し訳ありません.. mediasegmenter
どんな助けでも大歓迎です.. !!
前もって感謝します..!!
ios - HTTP ライブ ストリーミングのエンコーディング プロバイダー
浮動小数点 EXTINF または時間指定されたメタデータを使用した HTTP ライブ ストリーミングをサポートするエンコーディング プロバイダーはありますか? Apple の mediafilesegmenter ツールを使用して、両方を試しました。iOS 4.3 以降でスクラブを完全に正確にするために、2 つのいずれかが役立ちます。
ありがとう!
iphone - FMS 4.5 を使用して、Flash Builder でパッケージ化された iPhone/iPad にビデオをライブ ストリームします。
彼らは、FMS 4.5 でライブ ビデオを iPhone/iPad にストリーミングできると言っています。アドビの発表やブロガーの再投稿にすっかり夢中になっています。
iPhone/iPad でライブ ビデオ ストリームを可能にする方法についての実際のサンプルまたは記事はありますか。Flash Builder 4.5 を使用してアプリケーションを開発しています。
目標は単純です。1 人のユーザーが PC からストリームをブロードキャストします。他のユーザーは iOS から再生します。アプリケーションは Flash Builder でビルドします。
スタン
android - Android 4でのHttpライブストリーミング(アイスクリームサンドイッチ)
アンドロイドでhttpライブ蒸しリンク(.m3u8)を再生したいのですが。そのためのコード(スニペット)の書き方を教えてください。
私は次のことを試しました(アクティビティのonCreateイベントで)が、うまくいきませんでした(Cantがビデオを再生すると言います):
注:テストにエミュレーターを使用するヘルプに感謝します