これは非常に幅広いトピックであることは知っていますが、デモや自分のテストに悩まされており、問題を正しく攻撃しているかどうかはわかりません。ですから、私がどこから始めるべきかについてのリードをいただければ幸いです。
目標は、ユーザーの設定に従って、アプリにいくつかの合成音を生成させることです。(これは唯一のアプリ機能ではありません。ここではコルグを再現していませんが、シンセはその一部です。)ユーザーはウェーブ、リバーブなどの一般的なシンセ設定を設定し、ノートが再生されるタイミングを選択します。おそらくピッチとベロシティモディファイアを使用します。
私はオーディオユニットとRemoteIOで少し遊んだことがありますが、私が何をしているのかほとんど理解していません。そのうさぎの穴をはるかに下る前に、私が正しい球場にいるかどうかを知りたいと思います。オーディオシンセが低レベルになることはわかっていますが、使用できる高レベルのライブラリがいくつかあることを期待しています。
どこから始めればよいのか、そしてどのiOSテクノロジーについてもっと読むべきかについての指針があれば、私に知らせてください。
ありがとう!
編集:質問をよりよく要約させてください。
iOS用にすでに構築されているシンセライブラリはありますか?(商用またはオープンソース-検索数が多いものは見つかりませんでしたが、見落としている可能性があります。)
バッファーの生成を容易にするのに役立つ高レベルのAPIはありますか?
すでにバッファーを生成できると仮定すると、RemoteIO Audio UnitよりもiOSオーディオデバイスにそれらのバッファーを送信するためのより良い/簡単な方法はありますか?