問題タブ [avaudioengine]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
4 に答える
21140 参照

swift - AVAudioEngine によるリアルタイム オーディオ

ねえ。AVAudioEngineSwiftの新機能を使用してリアルタイム オーディオ アプリケーションを実装したいと考えています。誰かが新しいフレームワークの経験がありますか? リアルタイム アプリケーションはどのように機能しますか?

私の最初のアイデアは、(処理された) 入力データをオブジェクトに格納し、デモ クラスで確認できるように、AVAudioPCMBufferそれを で再生させることでした。AVAudioPlayerNode

しかし、これはリアルタイムからかけ離れており、あまり効率的ではありません。アイデアや経験はありますか?そして、Objective-C や Swift を好むかどうかは関係ありません。すべてのメモ、コメント、コメント、解決策などに感謝します。

0 投票する
2 に答える
11364 参照

ios - AudioEngine で効果音を使用する

背景 - Apple の最近の WWDC で公開された次のビデオのリストから、オーディオに効果音を適用するために「AVAudioEngine in Practice」というタイトルのビデオを見ました。 https://developer.apple.com/videos/wwdc/2014/

その後、次のコードでオーディオのピッチを変更することに成功しました。

私が理解していることから、AudioEngine を使用して AudioPlayerNode を AudioEffect にアタッチし、それを出力にアタッチしました。

オーディオに複数の効果音を追加することに興味があります。たとえば、ピッチ変更とリバーブ。オーディオに複数の効果音を追加するにはどうすればよいですか?

また、ここで IBAction で行った方法ではなく、 viewDidLoad でノードをアタッチして接続することは理にかなっていますか?

0 投票する
2 に答える
2126 参照

ios - AVAudioEngine を Lightning ポートのオーディオ入力に接続するにはどうすればよいですか?

エレキギターをアプリに接続したいです。ギターから iPhone にオーディオを渡すハードウェア (Line6 Sonic Port) があります。ヘッドフォンでオーディオを再生する方法を見つけましたが、Lightning ポート入力ではなく、ヘッドフォン マイクからのオーディオです。ヘッドフォン マイク経由でオーディオを取得する代わりに、プログラムで Lightning ポート オーディオ入力を見つけるにはどうすればよいですか?

これが私がこれまでに試したことです:

これを実行すると、音声が聞こえますが、ギターではなくヘッドフォン マイクから聞こえます。Lightning ポートからのオーディオに接続するにはどうすればよいですか?

簡単な説明のために、私が使用しているハードウェアを次に示します。 Line6ソニックポート

0 投票する
1 に答える
2767 参照

ios - AVAudioEngine を使用して AVAudioInputNode を AVAudioUnitEffect に接続します

AVAudioInputNodeオーディオ ユニット エフェクト ( ) を使用して、デバイスの内蔵マイク ( ) からのオーディオを処理したいと考えていますAVAudioUnitEffect。私の例では、を使用してAVAudioUnitReverbいます。接続AVAudioUnitReverbすると、アプリケーションがクラッシュします。

リバーブをバイパスして にinputNode直接接続しても問題はありませんaudioEngine.outputNodeが、リバーブがありません。

audioEngine.connect(inputNode, to: audioEngine.outputNode, format: inputFormat)

私は何を間違っていますか?

アップデート

上記のコードは、リモートとマイクを備えた Apple EarPodsが接続されている場合にのみアプリケーションをクラッシュさせることをうっかり発見しました。デバイスの内蔵マイクを使用する場合、問題はありません。では、ヘッドフォンのマイクがアプリケーションをクラッシュさせるのはなぜAVAudioUnitEffectですか?

0 投票する
0 に答える
541 参照

ios - loadFactoryPreset が AVAudioUnitDistortion の preGain および wetDryMix プロパティに影響するのはなぜですか?

がとのプロパティに影響をloadFactoryPreset(preset: AVAudioUnitDistortionPreset)与えるのはなぜですか? この実装は、プリセットの変更時にプロパティを変更しないと矛盾しているようです。preGainwetDryMixAVAudioUnitDistortionloadFactoryPreset(preset: AVAudioUnitReverbPreset)

これは、この点を説明するために作成した遊び場と、各プリセットのプロパティがどのように変更されるかを示すグラフです。

ここに画像の説明を入力 ここに画像の説明を入力

すべてのディストーション プリセットは 100%wetDryMixでひどく聞こえるので、これがバグなのか、それともこの動作に正当な理由があるのか​​ 疑問に思わずにはいられません。

0 投票する
1 に答える
486 参照

objective-c - AVAudioEngine inputNode 呼び出しでエラーがスローされる

オーディオの再生と録音を同時に行うシンプルなデスクトップ アプリを開発しています。どういうわけかバグを入れるまで、すべてがうまくいっていました-今では、またはを呼び出そAVAudioEngineうとするたびに、エラーがスローされます。inputNodemainMixer

@property (nonatomic, readonly) AVAudioEngine *engine;ヘッダーにプロパティがあり、initメソッドの実装に次のコードがあり、inputNode呼び出しでスローされます。

すべての例外にブレークポイントを設定すると、コール スタックの上部が次のようになります。

以前はこれが機能していたので、明らかなことを忘れていると思いますか?