現在、iOS アプリの発信オーディオ信号を取得して、Audiobus に送信できるようにしようとしています。それらをルーティングできるようにするには、発信する AudioBufferLists が必要です。オーディオの再生には OpenAL を使用しています。
最良のケースは、送信信号を変更してそれに影響を与えることさえできることです。
現在、iOS アプリの発信オーディオ信号を取得して、Audiobus に送信できるようにしようとしています。それらをルーティングできるようにするには、発信する AudioBufferLists が必要です。オーディオの再生には OpenAL を使用しています。
最良のケースは、送信信号を変更してそれに影響を与えることさえできることです。
この男が OpenAL 用の独自のオーディオ ミキシング オブジェクトをどのように作成したかを確認して、これを実現することができます。
http://www.cuppadev.co.uk/openal-sucks-write-your-own-audio-mixer/
現在、iOS アプリで OpenAL の出力にアクセスするためのパブリック API はないようです。
出力が必要な場合は、オーディオ出力バッファを取得できるようにするために、別のオーディオ API を使用してサウンドを再生する必要があります。たとえば、圧縮されていない未加工の PCM オーディオを使用する Audio Queues や RemoteIO Audio Unit などです。
OpenAL を使用する代わりに、3D ミキサー オーディオ ユニット ( ) で CoreAudio を使用できますkAudioUnitSubType_AU3DMixerEmbedded
。次に、出力先を制御できます。明らかに、これを行うと移植性がいくらか犠牲になります (Mac OS X では問題ありませんが、Windows、Linux、または Android では問題ありません)。