音声分析を含む iOS アプリの開発を開始したいと考えています。Audio Session Programming Guideなどの Apple のドキュメントを読んでいますが、それでもオーディオ分析の出発点が必要です。たとえば、アプリで次のようなことを行う方法を知りたいShazam
です。2 つのオーディオ ファイル/ストリームを「比較」するにはどうすればよいですか? または、他のいくつかのアプリと同じように、オーディオ ファイルまたはストリームのリズムを検出して、たとえば同じリズムで動くアニメーションを表示するにはどうすればよいでしょうか?
ガイダンスが必要です。オーディオ分析の基本がいくつか欠けていることはわかっています。それらを学習するための出発点と、iOS アプリに適用する方法を教えていただければ幸いです。
前もって感謝します