ジェスチャー認識については、多くの研究が行われています。私はこれをハンド ジェスチャ認識のトピックに絞り込むことにしました (つまり、静止した手の位置から、手話認識と同じくらい複雑で動的なものまで)。
ブロブ検出、エッジ検出、関心点の追跡など、リアルタイムで利用できる画像処理技術を考慮します。隠れマルコフ モデルやその他の比較 AI と組み合わせて、リアルタイムのモーション追跡を行うためにどのような技術/アルゴリズムを使用しますか?ジェスチャ認識?
ジェスチャー認識については、多くの研究が行われています。私はこれをハンド ジェスチャ認識のトピックに絞り込むことにしました (つまり、静止した手の位置から、手話認識と同じくらい複雑で動的なものまで)。
ブロブ検出、エッジ検出、関心点の追跡など、リアルタイムで利用できる画像処理技術を考慮します。隠れマルコフ モデルやその他の比較 AI と組み合わせて、リアルタイムのモーション追跡を行うためにどのような技術/アルゴリズムを使用しますか?ジェスチャ認識?
正確であるためには、これらすべてのテクニックを組み合わせる必要があると思います。
wii-moteでこんなことをしたのですが、手の動きは認識しますが、ジェスチャーは認識しません。
隠れマルコフ モデルを使用し、リアルタイムで成功しました。
本当の答えではないかもしれませんが、試してみないとわかりません。
私の以前の同僚が同様の問題に取り組んだことを覚えています。彼らは、このトピックに関するカンファレンス ペーパーを公開しました:ポータブル ジェスチャ インターフェイスのフレームワーク。お役に立てれば。
アクティブシェイプモデルまたはアクティブアピアランスモデルを使用できると思います。それについての論文を見たのを覚えています