問題タブ [audio-streaming]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Android RTSP コーディングの問題
rtsp を機能させる確実な方法があるかどうかを調べるために、Google で検索しました。rtsp経由でそのストリームを聞くラジオ局があります。もちろん、デフォルトでは Android はそれをプレイしたくありません。URL を yourmuze.fm に入力してステーションを作成すると、携帯電話にストリーミングできます。それがどのように機能するかを確認した後、rtsp経由で電話にストリーミングされることがわかりました! だから明らかに何かがおかしい。あるストリームが機能し、別のストリームが機能しない理由は何ですか? これは私が試みているストリームです: rtsp://wms2.christiannetcast.com/yes-fm
これはオーディオ ストリームなので、「ビデオではなくオーディオのみを行う」というほとんどの人の問題に興奮します。yourmuze.fm がストリーミングされると、DDMS は、オーディオを再生するために MovieView を起動すると述べています。
iphone - m3u8 経由で iPhone にストリーミング
m3u8を介したiPhoneでのストリーミングについて読んでいますが、何か不足しているかどうかはわかりません。
MPMoviePlayerController は OS 3.1 ではフルスクリーンでしか再生できないことが十分に文書化されているため、iPhone ユーザーはビデオ (私の場合はオーディオを聞いている) を見て立ち往生し、アプリケーション内を移動できません。たとえば、Matt Gallagher のコードと mp3 を使用して、m3u8 経由でストリーミングする方法が見つかりませんでした...
埋め込みで再生する m3u8 プレーヤーを含める方法についてのアイデアはありますか?
ありがとう!
audio-streaming - GStreamerを使用してローカルネットワーク上でオーディオを移動する
Gstreamer上に構築された(私の)カスタムソフトウェアを実行している2台のLinuxマシン間でリアルタイムオーディオを移動する必要があります。(ソフトウェアは、別のTCPベースのプロトコルを介して、マシン間ですでに他の通信を行っています。信頼できる帯域外データがあるとソリューションに違いが生じる場合に備えて、これについて説明します)。
オーディオ入力は送信機のマイク/ライン入力になり、宛先のシンクとして通常のオーディオ出力になります。alsasrcとalsasinkが最も可能性が高いですが、テストでは、実際のマイクの代わりにaudiotestsrcを使用しています。
GStreamerは、RTP、RTSP、GDPペイロード、UDPおよびTCPサーバー、クライアントとソケットなど、ネットワーク上でデータを移動するためのさまざまな方法を提供します。ウェブ上にはオーディオとビデオの両方をストリーミングする例もたくさんありますが、実際にはどれも私にはうまくいかないようです。宛先パイプラインがキャップのネゴシエーションに失敗するか、単一のパケットが聞こえてからパイプラインストールが停止するか、宛先パイプラインがデータなしですぐに停止します。
すべての場合において、私はコマンドラインでgst-launchだけをテストしています。オーディオデータの圧縮は必要ありません-生のオーディオ、または些細なWAV、uLaw、またはaLawエンコーディングで問題ありません。さらに重要なのは、低レイテンシーです。
android - icecast サーバーからの Android ストリーミングはトラック情報を取得します
icecast サーバーからストリームをダウンロードしていますが、次のようにしてヘッダーの情報を取得できます。
while (cn.getHeaderField(pos) != null) { x=cn.getHeaderFieldKey(pos); y = cn.getHeaderField(x); Log.e(":::::",""+x+" : "+y); 位置++; }
これを行うと、受信したすべてのヘッダーが次のように表示されます。
content-type : audio/mpeg icy-br : 64 ice-audio-info : ice-samplerate=22050;ice-bitrate=64;ice-channels=2 icy-br : 64 icy-description : RadioStation icy-genre : クラシック、ニューエイジ、アンビエント icy-name : RadioStation 例 icy-private : 0 icy-pub : 1 icy-url : http://exampleradio.com server : Icecast 2.3.2 cache-control : no-cache
ただし、mplayer でストリームを開くと、次のようになります。
曲を変更するたびに、新しいトラック情報が送信され、mplayer で同じように表示されます。
Android では、icy-info を読み込もうとすると、返されるのは null だけです。また、ストリームからバッファリングしているときに、ヘッダーから新しい情報を取得するにはどうすればよいですか? 次のようなバッファリング中に存在することを既に知っているもののヘッダーを読み取ろうとしても、
返されるのは null だけです。
これが理にかなっていることを願っています。リクエストに応じてさらにコードを投稿できます。
html - HTML5 を使用して、shoutcast/icecast ストリームを再生するにはどうすればよいですか?
HTML5 を使用して、shoutcast/icecast ストリームを再生することは可能ですか?
もしそうなら、どのように実装すればよいですか?
javascript - ウェブサイトストリーミング用の無料オーディオプレーヤー
ウェブサイトで使用できる無料のオーディオプレーヤーはありますか?それらはカスタマイズ可能ですか?
Soundmanager 2について聞いたことがあります。これは、JavaScriptフロントエンドを備えたフラッシュベースのプレーヤーです。
そのような無料のプレイヤーは他にいますか?
audio - Web サーバーで Apple の .caf オーディオ ファイルを再生しますか?
Web サーバーで Apple の .caf オーディオ ファイルを再生しますか? Web サーバーに保存されている .caf オーディオ ファイル (Apple のオープン オーディオ フォーマット) があり、任意の O/S の Web ブラウザーからそれらを再生したいと考えています。
java - getAudioInputStream は [ステレオ、4 バイト/フレーム] ストリームを [モノ、2 バイト/フレーム] に変換できません
私は javasound を使用しており、形式の AudioInputStream を持っています
PCM_SIGNED 8000.0 Hz, 16 bit, stereo, 4 bytes/frame, little-endian
target_formatAudioSystem.getAudioInputStream(target_format, original_stream)
がPCM_SIGNED 8000.0 Hz, 16 bit, mono, 2 bytes/frame, little-endian
read() 呼び出しのたびにこのストリームを手動で変換することは可能ですか? はいの場合、どのように?
一般に、2 つの形式を比較して、変換が可能かどうかを判断するにはどうすればよいでしょうか?
video-streaming - Flash Media Live Encoder
I am using Adobe Flash Media Live Encoder to stream live video to a video streaming server.
The webcam is in our office pointed out the window.
Thankfully, Flash Media Live Encoder has a checkbox to un-include audio.
I am wondering how I can push a recorded message to the audio ( or music ). Is there any way I can play a recording and have it behave like a microphone?
iphone - 音声を携帯電話にストリーミングするには、どのテクノロジーを使用すればよいですか?
ユーザーが聞くためにオーディオ メディアが携帯電話にストリーミングされるアプリケーションの構築を計画しています。
対象はスマートフォン:iPhone/Blackberry/Android/(J2ME?)。
iPhone でのストリーミングはHTTP
ライブ ストリーミングで行う必要があるようですが、他のプラットフォームではサポートされていないようです。
経由でストリームをブロードキャストする必要がありますrstp
か? http
? すべての異なるモバイル プラットフォームに対して統一されたソリューションを使用する方法はありますか? 誰かがすでにこれを経験しなければならなかった場合、助けていただければ幸いです。