問題タブ [webkitaudiocontext]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - webkitAudioContext base64 WAVの再生
次のwavファイルがあります:ffmpeg -i my.wav
次の出力が得られます。
これは、以下に示す base64 変数としてメモリにロードされた JavaScript に base64 文字列として格納されます。
コードは次のとおりです。
出力:
このプレゼンテーションを見ると、WAV ヘッダーがあります: http://html5-demos.appspot.com/static/html5-whats-new/template/index.html#29
最初の値を 16 進数に変換すると、これは私の場合と同じですが、私の場合、decodeAudioData に対してコールバックが起動することはありません。何か案は?
javascript - Live Web Audio Input は Ubuntu の Google Chrome で動作しますか?
この記事によると、次のコードは OSX と Windows で動作するはずですが、Linux については触れていません。
http://updates.html5rocks.com/2012/09/Live-Web-Audio-Input-Enabled
バージョン 25.0.1323.1 dev の Chrome Dev をダウンロードしましたが、動作しません。
次のフラグを有効にしています。
audio-recording - AudioContext からサウンドを録音する (Web Audio API)
に送信されている音声データを録音する方法はありwebkitAudioContext.destination
ますか?
ノードがそこに送信しているデータはブラウザによって再生されているため、そのデータを (.wav) ファイルに保存する方法が必要です。
javascript - HTML5AudioAPI-「AudioContextの構築に利用できないオーディオリソース」
HTML5オーディオ用のグラフィックイコライザータイプの視覚化を作成しようとしています-この時点では、webkitAudioContextを使用してChromeのみです。
オーディオのソースを変更しようとすると、つまり別の曲を再生しようとすると、異常で予測できない動作が見つかります。オーディオの「canplay」イベントがトリガーされるまで待ってから、コンテキスト/アナライザーに接続する必要がある場所を読みました。
ソースを変更した最初の3〜4回は機能し、最終的には「Uncaught SyntaxError:Audio Resources availableforAudioContextconstruction」で失敗します。
完全なデモはこちらhttp://jsfiddle.net/eAgQN/
html - MP3音声データからWebへのストリーミングを実装したい
My Client Web(HTML5で実装)はWebサーバー(Node.jsで実装)からMP3音声データを取得しますが、音声データは16ビットPCMエンコードデータと一般的なバイナリデータの2種類です。
いくつかの例と説明に従っても、問題を解決できませんでした。
どうすればこれを再生できるのだろうと思いますが、「context.decodeAudioData」メソッドでエラーが発生する理由を教えてください。
よろしくお願いいたします。あなたに幸運を!~
javascript - オーディオスイッチで壊れるクロムオーディオアナライザー
私は webgl でオーディオ ビジュアライザーを作成しており、soundcloud トラックをそれに統合しています。トラックを切り替えられないようにしたいのですが、ビジュアライザーを動作させてオーディオを中断させるか、オーディオを動作させてビジュアライザーを中断させることができます。
私がそれを機能させることができた2つの方法は
オーディオ作業
- オーディオ要素を削除
- body に新しい audio 要素を追加する
- トリガープレイ
ビジュアライザーの動作
- オーディオを停止
- ソースを変更
- トリガープレイ
ビジュアライザーを動作させると、オーディオが完全にめちゃくちゃになります。バッファのサウンドが正しくなく、オーディオにアーティファクト (ノイズ、ビープ音、ブループ音) が含まれています。
オーディオが機能しているときに を呼び出すとanalyser.getByteFrequencyData
、0 の配列が返されます。これは、アナライザーが正しく接続されていないためだと思います。
オーディオ作業のコードは次のようになります
(電話は必要ないと思いますよpause
ね?)
ビジュアライザーを機能させたいときは、このコードを使用します
機能はstartWebAudio
こんな感じ。
私の疑いは、アナライザーが正しく接続されていないことですが、それを理解するために何を見ればよいかわかりません。出力を確認しましたfrequencyByteData
が、何かが正しく接続されていないことを示しているようです。analyser
変数はグローバルです。コードをさらに参照したい場合は、github の場所を参照してください。
google-chrome - SafariブラウザでwebkitAudioContextが定義されていません
コンソール(クロム)で試してみましたが、webkitAudioContext
定義されています(ネイティブコードで機能します)。
サファリ (5.1.6) では、「メッセージ: " Can't find variable: AudioContext
"」が返されます。
webkitAudioContext
サファリで使えますか?
ありがとう!
編集:
javascript - JavaScript を使用して webKitAudioContext 経由でオーディオをストリーミングする
バックエンド サーバーにストリーミングするために、コンピューターのオーディオ ソースにアクセスしようとしています。この接続を容易にするためにオブジェクトを使用するこちらのチュートリアルを使用しています。webKitAudioContext
しかし、私はそのstream
オブジェクトに混乱しています。まず、webkitGetUserMedia
メソッドでは、callback
このパラメーターなしで関数が呼び出されます。第二に、ウェブページの指示を読む
"We ask, using getUserMedia, for access to the microphone. If this is successful our callback gets called with the audio stream as its parameter."
stream
この変数が何であるか/どこから来るべきか誰か教えてもらえますか? これはストリーミング オーディオへの私の最初の進出です。:)
編集
どうやらこれは、コンソールで次のように評価されるある種の「暗黙の」パラメーターです。
私はまだこのストリーミング全体に慣れていないので、このオブジェクトが何であるかについてさらに情報を持っている人は誰でも大歓迎です。ありがとう!
javascript - マイクから音声データを配列として取得する
マイクから取得した音声データをログに記録したい:
マイクで話していますが、ログに記録された配列には毎回 0 の値しか含まれていません。私が間違っていることを教えてもらえますか?ありがとう
javascript - 複数のオーディオ インターフェイスに Web Audio を供給する方法はありますか?
現在、複数のオーディオインターフェースに異なる音を与えるアプリを実現する方法を考えています。たとえば、2 番目のサウンド カードを自由に使用できるとします。
私が調査した限り、Web Audio の AudioContext は単一の宛先にのみフィードします。実際の宛先ハードウェアを選択する方法は見たことがありません。
誰でもこれを回避する方法を考えることができますか?