3

セグメント3Dにマップされた一連のポイントがあります。[0, 1]これらの点は、円を描く、手を振るなどの単純なジェスチャーを表します。今度はHidden Markov Models自分のジェスチャーを認識するために使用したいと思います。(X, Y, Z)最初のステップは、データの特徴を抽出することです。何か役に立つものを検索しようとしたところ、いくつかの例が見つかりSIFTましSURFFast Fourier Transform

プロジェクトでどちらを使用するべきか混乱しています。Kinect コントローラーからのデータを使用してジェスチャーを認識したいので、関節をアルゴリズムで追跡する必要はありません。

4

3 に答える 3

2

私は同様の問題に取り組んでいます。これまでのところ、私が見つけた最高の素材は、David Catuhe の Kinect Toolbox です。ジェスチャ認識、Kinect データの記録と再生のためのいくつかの基本的なコードがあります。

ここから読み始めることができます: http://blogs.msdn.com/b/eternalcoding/archive/2011/07/04/gestures-and-tools-for-kinect.aspx

于 2013-02-26T11:30:10.963 に答える
2

1 年か 2 年ほど前に、さまざまな機械学習手法に関する論文のために、ジェスチャー認識のために HMM を実装する必要がありました。私は、HMM を含む、私が調べていたものの多くを実装するのに役立つAccord .NET Frameworkに出くわしました。使い方はかなり簡単で、作成者はフォーラムで活発に活動しています。

HMM をトレーニングするために、体の一部が 3 秒間静止するとジェスチャの記録を開始する Kinect アプリケーションを作成しました。その後、その部分が再び 3 秒間停止するまで、すべてのポイントを出力ファイルに記録します。次に、トレーニングしたいジェスチャーの最良の試行を選択し、それらをトレーニング セットとして使用しました。

Kinect ジェスチャ認識が初めてで、HMM を使用する必要がない場合は、テンプレート マッチングを検討することをお勧めします。テンプレート マッチングの方がはるかにシンプルで、単純なジェスチャには非常に効果的であることがわかりました。

于 2013-03-06T22:18:21.813 に答える
1

[訓練された] サポート ベクター マシンを検討したことがありますか?

参照: LibSVN ライブラリhttp://www.csie.ntu.edu.tw/~cjlin/libsvm/

アイデアは、ジェスチャーを n 次元のトレーニング問題として定義することです。次に、ジェスチャごとに単純にトレーニングします (複数分類 SVM)。トレーニングが完了すると、ユーザーのジェスチャーを N 次元ベクトルとしてマッピングし、トレーニング済みのモデルで分類しようとします。

于 2013-03-01T20:34:24.703 に答える