MP3 用の OpenGL ビジュアライザーをペット プロジェクトとして作成することに興味があります。
拡張現実と組み合わせて使用されているビジュアライザーを誰かが披露しているこの youtube ビデオに出くわしました。
http://www.youtube.com/watch?v=SnshyLJSpnc#t=1m15s
そのビデオを見てください。ただし、そのビデオの拡張現実の側面は無視してください。拡張現実ではなく、ビジュアライザーを作成することにのみ関心があります。
音楽に関連するこれらのパターンを生成するために、どのような種類のアルゴリズムが使用されましたか? 見ると、視覚化のいくつかの異なる方法のように見えるものを見ることができます。最初のものは独特の外観を持っています:
最初のものは、レンダリング領域上を移動する波のように見えました:
別の「モード」では、視覚化が同心円の中心を中心に移動するように見えました。
オーディオプログラミングに精通している人なら誰でも、どのようなアルゴリズムを使用して同様の視覚化を生成できますか? 最初のアルゴリズムはどのようなアルゴリズムを使用しましたか? それとも同心円のもの?
音楽に基づいてこれらのビジュアライゼーションを生成するために使用されたアルゴリズムを教えていただけると、非常に助かります。