3

私はこれがネット上に広まっていることを知っています。私はたくさん閲覧し、ジェスチャー認識に関する多くの情報を見つけました.しかし、それらのほとんどを読んだ後、私はさらに混乱しました.

私は Linux 用に開発する必要があり、OpenNI、NITE がジェスチャを認識する柔軟性を与えてくれるかどうか疑問に思っていました。

私は、ジェスチャーを認識し、画面上に物(球、立方体など)を描画する手話プログラムを開発しようとしています。

このプロジェクトを開始するための明確なガイドラインを誰か教えてくれませんか? どこから始めればいいのかわかりません。

どんな助けでも大歓迎です。

ありがとう

4

3 に答える 3

3

ジェスチャーの理解を始めるには、しばらく前に作成したブログ投稿を確認することをお勧めします:http: //www.exceptontuesdays.com/gestures-with-microsoft-kinect-for-windows-sdk-v1-5/

これに加えて、リンク先の投稿では、「ジェスチャ」を構成するものと、Kinect forWindowsSDKを使用してそれらを実装する方法について説明します。

また、公式のKinect SDKのジェスチャーを実行するKinectツールボックスを確認することもできます:http: //kinecttoolbox.codeplex.com

これらは、ジェスチャーの処理方法をよく理解するのに役立ちます。その後、それらの概念やアイデアをOpenNI環境に移すことができます。

于 2012-10-26T13:14:27.860 に答える
1

手話システムで手のジェスチャーを使用したい場合は、Kinect 3D handtrackingを参照してください。全身の動きが含まれている場合は、KineticSpaceを見てください。どちらのツールも Linux で機能しますが、最初のツールには CUDA 対応の GPU も必要です。

于 2014-12-05T11:41:41.710 に答える
0
  • ジェスチャ認識は、KinectオフィシャルSDKとOpenNIのどちらを使用するかに依存しないと思います。Kinectからスケルトンデータまたは深度画像を取得できれば、スケルトン間の時間との関係からジェスチャまたは位置を抽出できます。私の知る限り、これらのSDKはすべてこれらの情報を提供します。

  • 私はWindowsでkinectを開発しましたが、原則は同じです。ジェスチャ認識の原則を知っておくことをお勧めします。そうすれば、他のSDKを使用して認識を行う方法を見つけることができます。

于 2012-10-26T02:18:56.350 に答える