14

私は OpenKinect の開発を調べ始めました。まず、その人が行った特定のジェスチャーを探す方法を見つけようとしています。

これを行う方法に関するチュートリアルはありますか? または、どこから始めるのが良いでしょうか?

たとえば、人が手をどちらの方向に向けるかを知るなどのことをしようとしています。とはいえ、私はどんな種類の助けにも感謝します!

更新: 私が知る限り、ONIPY Python ラッパーに加えて、OpenNI/NITE フレームワークを使用する可能性が最も高いです。したがって、より良いフレームワークがない限り、自分のジェスチャーを作成する方法を理解する必要があります。

4

1 に答える 1

3

正確にあなたが望むものになるかどうかはわかりませんが、私の兄はOpenNI / NITEライブラリを使用して、Rubyを使用してKinect上のいくつかのジェスチャを認識しました。私は兄がコンピューターに波を与えていることをコンピューターが認識したところで行ったデモを見ました。

そのライブラリにはonipyプロジェクトのPythonバインディングがありますが、私は個人的には使用していません。まだまだ作業が必要かもしれないと思いますが、必ず調べてみます。OpenNIのWebサイトにもあるドキュメントを読むことをお勧めします。

于 2011-04-08T16:16:03.683 に答える