問題タブ [avaudioengine]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
swift - AVAudioEngine によるリアルタイム オーディオ
ねえ。AVAudioEngine
Swiftの新機能を使用してリアルタイム オーディオ アプリケーションを実装したいと考えています。誰かが新しいフレームワークの経験がありますか? リアルタイム アプリケーションはどのように機能しますか?
私の最初のアイデアは、(処理された) 入力データをオブジェクトに格納し、デモ クラスで確認できるように、AVAudioPCMBuffer
それを で再生させることでした。AVAudioPlayerNode
しかし、これはリアルタイムからかけ離れており、あまり効率的ではありません。アイデアや経験はありますか?そして、Objective-C や Swift を好むかどうかは関係ありません。すべてのメモ、コメント、コメント、解決策などに感謝します。
ios - AudioEngine で効果音を使用する
背景 - Apple の最近の WWDC で公開された次のビデオのリストから、オーディオに効果音を適用するために「AVAudioEngine in Practice」というタイトルのビデオを見ました。 https://developer.apple.com/videos/wwdc/2014/
その後、次のコードでオーディオのピッチを変更することに成功しました。
私が理解していることから、AudioEngine を使用して AudioPlayerNode を AudioEffect にアタッチし、それを出力にアタッチしました。
オーディオに複数の効果音を追加することに興味があります。たとえば、ピッチ変更とリバーブ。オーディオに複数の効果音を追加するにはどうすればよいですか?
また、ここで IBAction で行った方法ではなく、 viewDidLoad でノードをアタッチして接続することは理にかなっていますか?
ios - AVAudioEngine を Lightning ポートのオーディオ入力に接続するにはどうすればよいですか?
エレキギターをアプリに接続したいです。ギターから iPhone にオーディオを渡すハードウェア (Line6 Sonic Port) があります。ヘッドフォンでオーディオを再生する方法を見つけましたが、Lightning ポート入力ではなく、ヘッドフォン マイクからのオーディオです。ヘッドフォン マイク経由でオーディオを取得する代わりに、プログラムで Lightning ポート オーディオ入力を見つけるにはどうすればよいですか?
これが私がこれまでに試したことです:
これを実行すると、音声が聞こえますが、ギターではなくヘッドフォン マイクから聞こえます。Lightning ポートからのオーディオに接続するにはどうすればよいですか?
簡単な説明のために、私が使用しているハードウェアを次に示します。
ios - AVAudioEngine を使用して AVAudioInputNode を AVAudioUnitEffect に接続します
AVAudioInputNode
オーディオ ユニット エフェクト ( ) を使用して、デバイスの内蔵マイク ( ) からのオーディオを処理したいと考えていますAVAudioUnitEffect
。私の例では、を使用してAVAudioUnitReverb
います。接続AVAudioUnitReverb
すると、アプリケーションがクラッシュします。
リバーブをバイパスして にinputNode
直接接続しても問題はありませんaudioEngine.outputNode
が、リバーブがありません。
audioEngine.connect(inputNode, to: audioEngine.outputNode, format: inputFormat)
私は何を間違っていますか?
アップデート
上記のコードは、リモートとマイクを備えた Apple EarPodsが接続されている場合にのみアプリケーションをクラッシュさせることをうっかり発見しました。デバイスの内蔵マイクを使用する場合、問題はありません。では、ヘッドフォンのマイクがアプリケーションをクラッシュさせるのはなぜAVAudioUnitEffect
ですか?
ios - loadFactoryPreset が AVAudioUnitDistortion の preGain および wetDryMix プロパティに影響するのはなぜですか?
がとのプロパティに影響をloadFactoryPreset(preset: AVAudioUnitDistortionPreset)
与えるのはなぜですか? この実装は、プリセットの変更時にプロパティを変更しないと矛盾しているようです。preGain
wetDryMix
AVAudioUnitDistortion
loadFactoryPreset(preset: AVAudioUnitReverbPreset)
これは、この点を説明するために作成した遊び場と、各プリセットのプロパティがどのように変更されるかを示すグラフです。
すべてのディストーション プリセットは 100%wetDryMix
でひどく聞こえるので、これがバグなのか、それともこの動作に正当な理由があるのか 疑問に思わずにはいられません。
objective-c - AVAudioEngine inputNode 呼び出しでエラーがスローされる
オーディオの再生と録音を同時に行うシンプルなデスクトップ アプリを開発しています。どういうわけかバグを入れるまで、すべてがうまくいっていました-今では、またはを呼び出そAVAudioEngine
うとするたびに、エラーがスローされます。inputNode
mainMixer
@property (nonatomic, readonly) AVAudioEngine *engine;
ヘッダーにプロパティがあり、init
メソッドの実装に次のコードがあり、inputNode
呼び出しでスローされます。
すべての例外にブレークポイントを設定すると、コール スタックの上部が次のようになります。
以前はこれが機能していたので、明らかなことを忘れていると思いますか?