私は深いところから飛び降り、Audio Units を使用して iOS で低遅延のオーディオを理解することにしました。私は見つけることができる限り多くのドキュメント (Apple およびフォーラムから) を読み、全体的な概念は理にかなっていますが、助けが必要ないくつかの概念についてはまだ頭を悩ませています。
どこかで、AU グラフが非推奨であり、代わりに Audio Units を直接接続する必要があることを見ました。私はそれでいいです...しかしどうやって?Audio Unit の Connection プロパティを使用してソース AU に接続するだけでよいのでしょうか? ユニットを初期化して開始し、魔法が起こるのを見ますか? (私には向いていないので…)
単にマイクからオーディオを取得し、オーディオ データに何らかの処理を行い、そのオーディオ データをRemoteIO スピーカーのバス 0 出力に送信せずに保存する場合に使用するのに最適な Audio Unit セットアップは何ですか? GenericOutput AudioUnit を接続して、運がなければコールバックでデータをキャッチしようとしました...
それでおしまい。要求があればコードを提供できますが、手遅れであり、これで私は一掃されました。簡単な答えがわかっている場合、それはクールです。任意のコード スニペットを送信します。簡単に言うと、RemoteIO、マイク入力、スピーカー出力のセットアップがうまく機能するように簡単に設定できます。レイテンシーは存在しないようです (少なくとも私の耳には)。マイクデータで何かをして、スピーカーに出さずにメモリに保存したいだけです。最終的に EQ とミキサーを接続するのはヒップなことですが、一歩ずつです。
FWIW、私は Xamarin Forms/C# ランドでコーディングしていますが、コード例は Objective C、Swift などで問題ありません。私は概念に固執していますが、必ずしも正確なコードではありません。
ありがとう!