問題タブ [avaudioplayernode]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - AVFoundation のポジショナル オーディオが iOS デバイスで機能しない
AVAudioEngine
と を使用して、Swift iOS アプリで位置オーディオを再生しようとしていAVAudioEnvironmentNode
ます。オーディオを正常に再生し、ステレオで両方の出力間をシフトして空間化して聞くことができますが、シミュレーターでのみです。iPhone で同じアプリを実行すると、オーディオは再生されますが、ソースが移動されたときにパンするのではなく、両方の耳で再生されます。デバイスのオーディオ出力を手動で処理するなど、特別な設定が必要ですか?
オーディオ エンジンとプレーヤーを次のように初期化します。
ソース ファイルはモノラル チャンネル.wav
です。
将来のある時点で、プレーヤーの位置を変更します。
これは、片耳でのみ (またはほとんど) 再生する必要があります。iOS シミュレーターで実行すると、期待どおりの動作をします。ただし、実際のデバイスでplayer.position
は、設定に関係なく、両方の耳で均等に再生されます。の設定が関係していると思われますaudioEngine
。
考え?
ios - AvAudioPlayer ノードでローパスや時間遅延などの AvAudiounit 機能を使用する方法
私は Apple の AudioEngine を使用しており、AvAudioPlayerNode を使用してサウンドを再生できます。問題は、ローパス フィルターや時間遅延などの機能を追加しようとしても、プレーヤーに影響を与えないことです。これらの効果を AvAudioPlayerNode に影響させるにはどうすればよいですか。
さまざまなユニットを作成し、それらをエンジンに接続してからメイン ミキサーに接続しましたが、まだ成功していません。また、バイパスを false に保ちましたが、まだ解決策はありません。
私もこれを試しましたが、修正されませんでした。
エフェクトでプレイヤーの音を操作したい。
swift - Swift: AVAudioUnit を AVAudioEngine の再生から切断します
ある時点で、いくつかのエフェクトを使用してオーディオ ファイルを再生しています。コードは次のとおりです。
AVAudioUnit
私が望むのは、特定のアクションが発生したときにいずれかを切断することです。ただし、プレーヤーを取り外した後AVAudioUnit
は完全に無音になります。
reverb
たとえば、コードを削除したい場合は次のとおりです。engine.disconnectNodeOutput(reverb)
しかし、この行を実行した後、プレーヤーは無音になります。
私がしている間違ったことは何ですか?すでに追加されているエフェクトの 1 つを削除したいだけです。
swift - 現在のループの最後で無期限にループするように設定された avaudioplayernode を停止する方法
バッファ内のオーディオファイルの再生をループするために使用してAVAudioPlayerNode
おり、ユーザーが次をクリックしたときに次のトラックに切り替えることができる必要がありますが、ユーザーが次をクリックするとすぐにではなく、ループの最後に切り替えます
再生を開始するために使用するコードは次のとおりです
objective-c - Objective-C: AVAudioEngine の floatChannelData から 0 を取得する
私はAVAudioEngine
このコードを使用してマイクからリストしています:
次に、バッファを渡すのを見ると、という関数に入りますnormalize:
今のところ、 の値のみを出力したいと思いますfloatChannelData
。問題は、常に 0 を出力していることです。そのため、バッファの値はすべて 0 です。なぜこれが起こっているのでしょうか? マイクが受け取る声の変化に合わせて値が変化するべきではありませんか?