問題タブ [avaudioplayernode]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
303 参照

ios - AVFoundation のポジショナル オーディオが iOS デバイスで機能しない

AVAudioEngineと を使用して、Swift iOS アプリで位置オーディオを再生しようとしていAVAudioEnvironmentNodeます。オーディオを正常に再生し、ステレオで両方の出力間をシフトして空間化して聞くことができますが、シミュレーターでのみです。iPhone で同じアプリを実行すると、オーディオは再生されますが、ソースが移動されたときにパンするのではなく、両方の耳で再生されます。デバイスのオーディオ出力を手動で処理するなど、特別な設定が必要ですか?

オーディオ エンジンとプレーヤーを次のように初期化します。

ソース ファイルはモノラル チャンネル.wavです。

将来のある時点で、プレーヤーの位置を変更します。

これは、片耳でのみ (またはほとんど) 再生する必要があります。iOS シミュレーターで実行すると、期待どおりの動作をします。ただし、実際のデバイスでplayer.positionは、設定に関係なく、両方の耳で均等に再生されます。の設定が関係していると思われますaudioEngine

考え?

0 投票する
0 に答える
260 参照

ios - AvAudioPlayer ノードでローパスや時間遅延などの AvAudiounit 機能を使用する方法

私は Apple の AudioEngine を使用しており、AvAudioPlayerNode を使用してサウンドを再生できます。問題は、ローパス フィルターや時間遅延などの機能を追加しようとしても、プレーヤーに影響を与えないことです。これらの効果を AvAudioPlayerNode に影響させるにはどうすればよいですか。

さまざまなユニットを作成し、それらをエンジンに接続してからメイン ミキサーに接続しましたが、まだ成功していません。また、バイパスを false に保ちましたが、まだ解決策はありません。

私もこれを試しましたが、修正されませんでした。

エフェクトでプレイヤーの音を操作したい。

0 投票する
1 に答える
290 参照

swift - Swift: AVAudioUnit を AVAudioEngine の再生から切断します

ある時点で、いくつかのエフェクトを使用してオーディオ ファイルを再生しています。コードは次のとおりです。

AVAudioUnit私が望むのは、特定のアクションが発生したときにいずれかを切断することです。ただし、プレーヤーを取り外した後AVAudioUnitは完全に無音になります。

reverbたとえば、コードを削除したい場合は次のとおりです。engine.disconnectNodeOutput(reverb) しかし、この行を実行した後、プレーヤーは無音になります。

私がしている間違ったことは何ですか?すでに追加されているエフェクトの 1 つを削除したいだけです。

0 投票する
1 に答える
272 参照

swift - 現在のループの最後で無期限にループするように設定された avaudioplayernode を停止する方法

バッファ内のオーディオファイルの再生をループするために使用してAVAudioPlayerNodeおり、ユーザーが次をクリックしたときに次のトラックに切り替えることができる必要がありますが、ユーザーが次をクリックするとすぐにではなく、ループの最後に切り替えます

再生を開始するために使用するコードは次のとおりです

0 投票する
1 に答える
134 参照

objective-c - Objective-C: AVAudioEngine の floatChannelData から 0 を取得する

私はAVAudioEngineこのコードを使用してマイクからリストしています:

次に、バッファを渡すのを見ると、という関数に入りますnormalize:

今のところ、 の値のみを出力したいと思いますfloatChannelData。問題は、常に 0 を出力していることです。そのため、バッファの値はすべて 0 です。なぜこれが起こっているのでしょうか? マイクが受け取る声の変化に合わせて値が変化するべきではありませんか?