問題タブ [internet-radio]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Android アプリケーションでの AAC オーディオのストリーミング
インターネット ラジオ ステーションをストリーミングする単純な Android アプリをプログラムしようとしていますが (URL はわかっています)、ストリームは aac オーディオです。私は COREaac を認識していますが、それに関するドキュメントはあまりありません。このアプリを動作させるために必要な別のデコード ライブラリはありますか? 任意の提案が役立つか、誰かが同様の問題を抱えて解決した場合。
ありがとう
shoutcast - icy-mettaint 解析
私は、Shoutcast ストリームを読み取り、データから「icy-mettaint」値を解析する古い Java コードをいくつか持っていました。新しいストリームが機能せず、代わりに「icy-mettaint」が http ヘッダー変数にあることに気付きました。このストリームのヘッダーに情報が含まれているのはなぜですか? シャウトキャストの新基準?動作しますが、説明が必要です。
ありがとう
stream - SHOUTcastを含むイントロMP3ファイル
ロードされるたびに変化し、異なる広告を再生するPHP MP3ファイルがあります。私が望むものは、SHOUTcastイントロファイルとしてSHOUTcastストリームの前に再生するために離れているかそこにあります。
私は個人的にそれをフラッシュに入れたり、カスタムプレイリストファイルを作成したりしたくありませんが、SHOUTcastがURLアドレスからイントロファイルをフェッチすることを望んでいます。
javascript - Node.js HTTP パーサーのオーバーライド
Nodeの基本http.request()
機能は普通のHTTPサーバーで問題なく使えています。http.request()
SHOUTcastサーバーで使用する(または同様の)必要があります。SHOUTcast の「プロトコル」は HTTP と完全に互換性がありますが、1 つの詳細を除きます...最初の応答行です。
通常の HTTP サーバーは次のように応答します。
SHOUTcast サーバーは次のように応答します。
ここでも、プロトコルの残りの部分は同じです。唯一の違いはHTTP/1.x
対ICY
です。
Node の関数を拡張、サブクラス化、またはなんらかの方法で変更http.request()
して、SHOUTcast サーバーで動作できるようにしたいと考えています。Node を使用した SHOUTcast への接続は、以前にも行われていましたが、車輪全体を再発明することによってのみ行われました。プロトコルの小さな違いに相当するもののために、私はむしろそれをしたくありません。
私の質問: 次のいずれかを行う方法はありますか?
Node の HTTP パーサーの関連部分を拡張またはオーバーライドします。(パーサーがネイティブ コードのように見えるため、これが可能であるとは思えません。)
HTTP の関連部分を解析する独自のコードを作成しますが、HTTP の既存の Node コンポーネントをできるだけ多く再利用します。
Node の HTTP パーサーに到達する前に最初のサーバー応答行を変更できるように、単純な内部プロキシ (または何らかの方法でデータを中継) を作成します。
他の何か?
Shredの使用も検討しましたが、応答をストリーミングするオプションはありません。(イベントを発生させる前にサーバーの応答全体が完了するのを待ちます。これは、データが無期限に実行されるストリーミング サーバーでは機能しません。) 同じ方針でRequestを試しましたが、Node 独自の HTTP パーサーを使用しているため、ネイティブ HTTP クライアントの場合と同じ解析エラーが発生します。
shoutcast - 現在再生中の曲の開始時刻と終了時刻を取得する
Androidでラジオストリームスイッチャーを実装しようとしています。私がやりたいことは、望ましい順序で、これです:
- ラジオ局のストリーミングを開始する
- そのステーションから現在再生中の曲の endTime を取得します
- endTime - Delta でステーションのリストをスキャンし、間隔 [endTime, endTime + Delta'] で始まる新しい曲が含まれるステーションのリストを取得したい
- [3]の結果セットからストリームに切り替えて、繰り返します
それで、ラジオ局をストリーミングできます (問題ありません)。曲が変更されたときに通知を受け取ることができます (streamcraper を使用してメタデータを取得し、メタデータが変更されたときに通知を生成します)。ただし、私が見つけることができなかったのは、次のことが可能かどうかです。
- 現在再生中の曲の endTime を取得する
- ステーションのリストをスキャンし、ほぼ同時に開始された曲を取得するか (つまり、曲の startTime を取得します)、またはすぐに開始される可能性のある曲を取得します (これらのストリームの現在の曲の endTime が近い場合、または実際にストリーム プログラムを取得できる場合)。あらかじめ)。
これが可能かどうか誰かが教えてくれたら、私は義務付けられます.
samsung-smart-tv - Samsung Smart-TVのIcecastオーディオ(ラジオ)ストリームに埋め込まれたストリーミングされた「再生中」データを抽出するにはどうすればよいですか?
ラジオ局用のSamsungTVアプリを作成していますが、Icecastストリーム内で「NowPlaying」情報を提供しています。この情報を抽出することは可能ですか(そしてどのようにすればよいですか)?
android - ストリーミング インターネット ラジオ エラー アンドロイド
http://www.4shared.com/zip/OTcJZZft/StreamingRadio.html
からダウンロードした例でインターネット ラジオを再生しようとしています
が、この例の Android 用オンライン ラジオ ストリーミング アプリのように動作しますが、問題は私です。 logcat は次のエラーをスローし続けます。
これが何を意味するのか理解できません。誰かがそれが何を意味するのかを説明してもらえますか。また、誰かがインターネット ラジオ ストリーミングの新しいチュートリアルに案内してくれれば、それは大きな助けになります。
ありがとう。
ruby - Ruby を使用してオーディオ ストリームを分析する
インターネットラジオの内容を分析する方法を探しています。ストリームから現在のトラック、次のトラック、バンド、bpm、およびその他のメタ情報を取得できる Ruby クライアントを作成したいと考えています (例: シャウトキャストのラジオ)。誰もこれを行う方法を知っていますか? また、そのストリームを mp3 または aac ファイルに記録するにはどうすればよいですか?
すでにこれを実行できるライブラリがあるかもしれませんが、これまでのところありません。
よろしく
html - ライブストリームではなくキャッシュからのFirefoxストリーミング
html5オーディオタグを介してMP3をFirefoxにストリーミングするicecastサーバーを利用してインターネットラジオストリーマーを構築しました。ただし、ストリーマーが何らかの理由(切断など)で停止し、ストリーマーを再起動すると、セッションの開始からストリーミングが開始されることがあります。これにより、ストリーマーはブラウザーのキャッシュにあるものを再生していると信じられます。
ストリーマーに実際のライブストリームを再生させる唯一の方法は、Firefoxで履歴を削除することです。これは他のブラウザでは発生しません。これは、html5オーディオタグの代わりにフラッシュフォールバックを使用している場合にも発生します。
次のスクリプトを使用することを考えましたが、このシナリオに適用されるとは思いませんでした。
どんな洞察も役に立ちます。ありがとう。
audio - 音声ファイルをウェブサイトのユーザー/リスナーにストリーミングする最良の方法は何ですか?
サーバーに保存されているオーディオ ファイルをユーザーにストリーミングする音楽サイトを開発しています。オーディオ ファイルは、Web ページに配置されたフラッシュ プレーヤーを介して再生されます。
聞いた ところによると、オーディオ ファイルのストリーミングにはストリーミング メディア サーバーを使用する必要があります (2 MB から 3 MB のサイズなど)。使用する必要がありますか?
http://www.icecast.orgのようなストリーミング メディア サーバー ソフトウェアをいくつか見つけましたが、ドキュメントにあるように、ラジオ局のストリーミングやライブ ストリーミングの目的で使用されていますが、必要なのはオーディオ ファイルをより高速かつ小さいサイズでストリーミングすることだけです (低帯域幅)高品質..
最初にオーディオ ファイルをエンコードしてからリスナーに送信し、最後にオーディオ ファイルを再度デコードする必要があると聞きました。本当?どうやってやるの?特別な Web サーバーを使用する必要がある場合、ファイルをどこにホストすればよいですか? 良いホスティングプロバイダーはありますか?
通常の Web サーバーでオーディオ ファイルをホストすると、HTTP または TCP を使用してオーディオ ファイルがユーザー/リスナーに配信されますが、HTTP と TCP は、オーディオ ファイルとビデオ ファイルのストリーミングなどのマルチメディアの目的で使用するのに適していないことがわかりました。 HTML などの配信に使用されます。オーディオ ファイルのストリーミングには RSTP または UDP を使用する必要があることがわかりました。何を使用すればよいですか?
.MP3 ファイルの品質は他の形式よりもはるかに優れていることはわかっていますが、オーディオ ファイルのサイズも大きくなります。オーディオ ファイルにはどの形式を使用すればよいですか?
最高品質のオーディオ ファイルのほとんどは 7 MB を超えるため、ソフトウェアを使用して自分で変換し、ある程度の高品質の低サイズ ファイルを取得できるようにする予定です。オーディオ ファイルを変換する場合、ファイルに使用する適切なビットレートはどれですか?
品質を維持しながらオーディオファイルを変換するための既知の最高のソフトウェアはありますか?
注** - サイトの冒頭で複雑な要件を必要としないことはわかっていますが、soundcloud.com で使用されているような最良の方法を知りたいです。