ユーザーに関連する空間の特定のポイントからサウンドを再生する方法に興味があります。
基本的に、ユーザーはポイント(0,0)にいて、サウンドは(10,10)から来たと言いたいのですが、サウンドを取得して、それを再生するライブラリに送信し、ソースから来たように聞こえます( 10,10)。これを行う際のパフォーマンスは非常に重要です。
質問を読んでそれが痛々しいほど明白でなかった場合、私はどのデバイスでもオーディオの経験がほとんどありません。
少し調べてみると、AppleがサポートしているOpenALフレームワークを使用するか、基本的にAudioUnitの上に独自のフレームワークを追加するかを選択できるようです。
アップルが提供する3Dミキサーオーディオユニットがあります。これには、オーディオユニットについて多くの理解を深める必要があります。
次に、「ソース」と「リスナー」を配置できるクロスプラットフォームオーディオフレームワークであるOpenALがあり、減衰とステレオを計算します。
どちらもオーディオの再生についての低レベルの理解が必要であり、あまり楽しくありません。ですから、将来はもっと専門的なことをしたいと思うかもしれないので、水中に飛び込んでAudioUnitについて学ぶほうがよいと思いました。
これは、iOSOpenAL機能の簡単なラッパーです。ObjectAL-for-iPhone
例を試してみて、希望どおりに機能するかどうかを確認してください。