問題タブ [web-audio-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - スライダーにサウンドを追加する
13 枚の写真を 1 つのスライダーに入れます。各画像にサウンドを付けたいと思います。たとえば、画像 10 に到達すると、サウンド 10 が再生されます。
私は jQuery をまったく初めて使用し、 Orbitをスライダーとして使用することを考えましたが、サウンドを統合する方法がわかりません。
それを行う簡単なアイデアはありますか?
html - Web Audio API を使用した Chrome でのシームレスなループ
Web Audio API を使用して Chrome でシームレスなループを動作させるのに問題があります。遅延はわずか (< 100ms) ですが、非常に目立ちます。私がテストしたファイルは m4a と wav です。Safari 6 ではシームレスにループしますが、Chrome 23 ではループしません。ここでサンプル コードを使用しています: http://www.w3.org/2011/audio/wiki/Basic-Examples#Looping_Sounds_Without_Gaps
javascript - Web Audio APIは、さまざまなAudioBufferを追加/連結し、それらを1つの曲として再生します
私はWebAudioAPIで遊んでいて、曲の複数の部分をロードして新しいArrayBufferに追加し、そのArrayBufferを使用してすべての部分を1つの曲として再生しようとしています。次の例では、曲の異なる部分ではなく、同じ曲データ(小さなループ)を使用しています。
問題は、それが2回ではなく1回だけ再生されることであり、その理由はわかりません。
audio - WebオーディオAPIノートオン
Web Audio Oscillatorノードへのタイミング/リズム(潜在的にピッチ)入力を可能にするインターフェイスを構築しようとしています。実際には、「ステップシーケンサー」を作成します。
Web Audio APIオシレーターノードのスケジュールされたNoteOnをトリガーする最良の方法は何ですか?
特定のパターン、つまり1/4音符、1/8分音符、またはユーザーが入力したパターン。
javascript - Web Audio API Analyzer ノードがマイク入力で動作しない
http://code.google.com/p/chromium/issues/detail?id=112367で Chrome Canary のマイク入力を妨げていたバグが修正されました。この部分は機能しているようです。マイク入力をオーディオ要素に割り当てて、結果をスピーカーから聞くことができます。
しかし、FFT を実行するためにアナライザー ノードを接続したいと考えています。オーディオ ソースをローカル ファイルに設定すると、アナライザー ノードは正常に動作します。問題は、マイク オーディオ ストリームに接続されている場合、アナライザー ノードが、オーディオ ストリームがまったくないかのようにベース値を返すことです。(興味があれば、何度でも -100 です。)
何が起きているか知っている人はいますか?まだ実装されていませんか?これはクロムのバグですか?私は Windows 7 で 26.0.1377.0 を実行しており、getUserMedia フラグを有効にしており、Python の simpleHTTPServer 経由で localhost を介してサービスを提供しているため、アクセス許可を要求できます。
コード:
繰り返しますが、audio.src をコメント付きのバージョンに設定すると機能しますが、マイクでは機能しません。プロセスには以下が含まれます:
また、createMediaStreamSource を使用してオーディオ要素をバイパスしようとしました - 例 4 - https://dvcs.w3.org/hg/audio/raw-file/tip/webaudio/webrtc-integration.html。こちらも失敗。:(
mediasteam をバッファに書き込んでから、dsp.js などを使用して fft を実行することは可能かもしれないと思いますが、その道を進む前に最初に確認したかったのです。
air - Adobe AIRを使用して、Web Audio APIを使用するJavascriptで記述されたデスクトップ/モバイルアプリを作成できますか?
AdobeAIRを使用してJavascriptとWebAudioAPIを使用してアプリケーションを作成し、アプリケーションをスタンドアロンのデスクトップ/モバイルアプリケーションに変換した後もオーディオ機能を保持することはできますか?私はまだAdobeAIRを使い始めていないので、ソフトウェアに精通していません。
javascript - スライダーを使用してマウスダウン/アップトリガーオシレーターのピッチを変更し、JavascriptおよびWebAudioAPIを使用してマウスアップイベント後の状態を保持する方法
コード内のコメントは自明である必要があります。
編集。私はこれに少し近づいています:
html - appcache が有効になっていると、Safari のオーディオ ファイルへの Ajax リクエストが機能しない
アプリケーション キャッシュ マニフェストを使用して Web ゲームのメディア コンテンツをキャッシュし、ゲーム内で Web Audio API を使用してサウンドを再生します。
これは Chrome で動作し、Safari で初めて読み込まれます。しかしその後、音声ファイルに対する XHR 要求が実際には空の文字列を返すため、Safari では失敗します。
Mobile Safari でも同じことが起こります。
なぜこれが起こるのか誰にも分かりますか?オーディオ用にアプリのキャッシュを保持しながら、可能な回避策はありますか?
signal-processing - Web オーディオ API とフィルター係数
Web オーディオ APIを使用してサウンドを合成および処理する方法を学んでいます。使用できるBiquadFilterNodeクラスがあることがわかりましたが、定義されたフィルター タイプ ( "lowpass", "highpass", "bandpass", "lowshelf", "highshelf", "peaking", "notch", "allpass"
) の 1 つを指定し、そのようなフィルターのメタ パラメーターを介して制御することしかできません: Q
、gain
およびcenter-frequency
.
デジタル フィルターの実際の係数を指定する方法はありますか? つまり、次の形式のフィルタの場合:
どうにかして の値を直接指定できますb_0, b_1, b_2, a_1, a_2
か?
事前定義されたフィルター タイプは非常に便利ですが、必ずしもすべてのユース ケースをカバーしているわけではないためです。係数を指定することで、一次フィルタ、パラメトリック セクションなどを実装できます。
html - Web Audio API でバッファを解放するには?
私は Web Audio API が大好きです。可能性は素晴らしいです。とは言っても、まだ初期段階です。私が最も心配しているのは、不要になったバッファー/サウンドを解放する方法がわからないことです。ウェブソケットを介して接続されたミュージシャン/DJ/モデレーターからのライブサウンドをミキシングするため、常に新しいサウンドのサウンドバッファー。
次のコードは、行内の新しいバッファーの再生のロードをシミュレートします。エフェクトのミキシングを追加して、誰もが彼のパフォーマンスでライブ結果を聞くことができるようにするには、Web オーディオ API が必要です。
残念ながら、このコードは RAM 全体を消費し、モバイル サファリとデスクトップ サファリの両方をクラッシュさせます。それらが再生された後、それらの大きなバッファーを解放する方法がわかりません。また、それらはもう必要ありません。新しい大きなデータをメモリ内の代わりにロードする必要があります。誰か考えがありますか?そうしないと、再生された最初の 8 つのファイルがロードできなくなります。