スケルトンの動きに基づいてユーザーのジェスチャを検出するアルゴリズムにはどのようなものがありますか? 私が知っているものは次のとおりです。
a) 隠れマルコフ モデル。HMM にフィードする手の位置、肘の角度など、HMM の多数のパラメーターを定義します。そして、ジェスチャーを十分に確実に認識できるようになるまで、システムのトレーニングとパラメーターの微調整に時間を費やします。これがWiiのジェスチャーの一般的なやり方だと思います。kinect の良い例です。
b) ドットを接続します。ジェスチャのボキャブラリーが限られている場合は、各手が通常たどるパスに沿って衝突球を設定できます。パスを十分に速くたどらないと、ジェスチャーが失敗する可能性があります。
どちらの方法でも、成功/失敗率を希望どおりにするには、おそらく多くの調整が必要になるでしょう。私が気付いていない他のアプローチがあるかどうか、またこれらのそれぞれの利点は何か疑問に思っています。