問題タブ [web-audio-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
google-chrome - Chromeウェブオーディオでオーディオが再生されない
私はChromeのWebオーディオの最も基本的な(私が思うに)実装を持っています。
Webオーディオが有効になっているChrome13を使用していますが、サウンドが再生されません。ロードされているようですが(http://pieterhordijk.com/sandbox/html5-audio-api/webkit-audiocontext-interface)、再生されません。
html - ChromiumWebAudioAPIで純粋なJavaScriptを使用してトーンを生成する
javascriptとChromiumのWebAudioAPIのみを使用してトーン(たとえば、純粋な正弦波)を生成するにはどうすればよいですか?
Firefoxに相当するものを実現したいと思います。
ここでのChromiumWebAudioデモは、すべて事前に録音された<audio>
要素を使用しているように見えます。
ありがとう!
javascript - Chrome webkitAudioContextを使用して、ロードされたオーディオファイルの再生を途中で開始しますか?
ChromeウェブオーディオAPIとwebkitAudioContextを使用して、ループを再生しています。クロムブログのデジタルDJの例のように、間にクロスフェードしているループがいくつかあります。
彼らの例では、ループがサイクルの終わりに達したときにサンプルを切り替え、次にロードされたループの再生を開始します。新しいループをすぐに開始し、その間にクロスフェードしたいのですが、最初からだけでなく、途中で新しいオーディオファイルの再生を開始する方法の例をまだ見つけていません。
W3C Web Audio APIを調べましたが、送信するnoteOnパラメーターは、オーディオの再生を開始する必要があるコンテキストcurrentTime属性に関連してタイムコード化されたものにすぎません。常にサンプルの最初から再生を開始します。
2秒後にオーディオファイルの再生を開始する方法について、他にドキュメントや見落としているものはありますか?
api - WebオーディオAPIWaveShaperNode
WebオーディオAPIでwaveshapernodeをどのように使用しますか?特に曲線のFloat32Array属性?
javascript - Web オーディオの AudioNode のクリーンアップ
Web Audio APIのドキュメントでは、使い終わった後の の処理についてはあまり説明されていませんAudioNode
。たとえば、 を使い終わってAudioBufferSourceNode
それを取り除きたい場合、呼び出すだけで十分ですか、それともnoteOff()
必要disconnect
ですか?
javascript - Web Audio API を使用してリアルタイムよりも高速にオーディオをサンプリングする方法はありますか?
私は Web Audio API をいじっており、mp3 をインポートする方法を見つけようとしています (したがって、これは Chrome のみです)、キャンバス上でその波形を生成します。リアルタイムでこれを行うことができますが、私の目標はこれをリアルタイムよりも速く行うことです。
私が見つけたすべての例は、 onaudioprocess イベントにアタッチされた関数で、アナライザー オブジェクトから周波数データを読み取ることを含みます。
ただし、analyser.frequencyBinCount
サウンドが再生されているときにのみ読み込まれるようです (バッファがいっぱいになっていることについての何か)。
私が望むのは、ファイルを手動/プログラムでできるだけ速くステップ実行して、キャンバス イメージを生成できるようにすることです。
私がこれまでに持っているのはこれです:
ただし、getChannelData() は常に空の型付き配列を返します。
たとえそれが不可能であることが判明したとしても、どんな洞察も高く評価されます。インターネットがリアルタイムで何かをしたくないのは私だけだと思います。
ありがとう。
audio - Chrome でサポートされている音声ファイル形式は?
Web Audio APIの使用に興味があります。残念ながら、私のオーディオ ファイルはすべて、Chrome でデコードできない難解な形式になっています。(これらは .wav ですが、32 ビット浮動小数点エンコーディングで 96 kHz でサンプリングされています。)
ブラウザ (Chrome) にクエリを実行して、サポートされているオーディオ形式とエンコーディングを正確に確認する方法はありますか?
アップデート
ここで、Chrome でサポートされているファイル形式のリストを見つけました: https://sites.google.com/a/chromium.org/dev/audio-video
html - webAudioAPIでpcmデータを再生する
こんにちは私はWebAudioAPIに取り組んでいます。HTML5 Web Audio APIを読み、javax.soundから移植して歪みリンクを取得しましたが、javaAPIのように高品質を取得していません。サーバーから署名付きバイトでPCMデータを取得しています。次に、これを16ビット形式に変更する必要があります。変更のために使用しています(firstbyte << 8 | secondbyte)が、高品質の音質を得ることができません。音質を良くするための変換やその他の方法に問題はありますか?
windows - Windows上のWebオーディオAPI?
WindowsでWebKitのナイトリービルドを使用してWebAudioAPIデモを実行しようとしています。
デモは実行されず、コンソールはエラーをスローします(ReferenceError:変数が見つかりません:webkitAudioContext)。
WindowsでWebKitナイトリービルドでWebAudioAPIを現在使用できるかどうか誰かが知っていますか?もしそうなら、デモを実行するためにどのような手順を踏む必要がありますか?環境変数を設定する必要がありますか、それとも実行可能ファイルなどにコマンドライン引数を渡す必要がありますか?
アドバイスをいただければ幸いです。
javascript - JavaScriptNode(Web Audio API)で衝動を作る
私はWebAudioAPIを使用しており、インパルスを出力するJavaScriptNodeを作成しようとしています。つまり、1の後にゼロの束全体が続き、他には何も出力しないノードが必要です。
以下のコードはこれを行うための賢明な方法だと思いました。「timeForAnImpulse」という変数をtrueに初期化し、この変数を使用して、オーディオコールバックで衝動的な出力をトリガーします。次に、コールバックで「timeForAnImpulse」をfalseに設定します。
これは機能するはずですが、機能しません。単一のインパルスの代わりに、インパルストレイン(各バッファーの開始時に1)を取得します。私が間違っていることについて何か考えはありますか?