セグメント3D
にマップされた一連のポイントがあります。[0, 1]
これらの点は、円を描く、手を振るなどの単純なジェスチャーを表します。今度はHidden Markov Models
自分のジェスチャーを認識するために使用したいと思います。(X, Y, Z)
最初のステップは、データの特徴を抽出することです。何か役に立つものを検索しようとしたところ、いくつかの例が見つかりSIFT
ましSURF
たFast Fourier Transform
。
プロジェクトでどちらを使用するべきか混乱しています。Kinect コントローラーからのデータを使用してジェスチャーを認識したいので、関節をアルゴリズムで追跡する必要はありません。