Kinect で人の頭のてっぺんを追跡するための既存の API があるかどうか疑問に思っていました。たとえば、Kinect が天井から下を向いています。
そうでない場合、深度データを使用してそのようなことをどのように実装できますか。
Kinect で人の頭のてっぺんを追跡するための既存の API があるかどうか疑問に思っていました。たとえば、Kinect が天井から下を向いています。
そうでない場合、深度データを使用してそのようなことをどのように実装できますか。
いいえ。Kinect は、立っている (または適切なフラグが与えられている場合は座っている) 人間と向き合うことを想定しています。スケルトン トラッキングの概念を持つすべての API (公式またはサード パーティ) は、これを想定しています。
上から誰かを追跡したい場合は、OpenCV (またはC# 開発の場合はEmguCV ) などのライブラリを使用する必要があります。必須ではありませんが、コンピュータ ビジョンや画像処理に役立つユーティリティが提供されています。これらのライブラリは、Kinect を使用しているか、通常の RGB カメラを使用しているかを気にしません。
上から Kinect を使用すると、深度データを使用してブロブを見つけて追跡することができます。Kinect を床から既知の距離に置いて、数人にその下を歩いてもらい、そこから得られる Z 座標を確認します。次に、特定の Z 座標範囲内にあるものはすべて、人が床を横切って歩いていると仮定できます。画面(対猫、または他の何か)。
画像内のブロブを最初に見つけるには、標準の画像処理技術 (上記の OpenCV リファレンスを参照) を使用する必要があります。Kinect からの深度データが見つかったら役立つかもしれませんが、人が床を横切って歩くのを見ているだけなら、最終的には必要ないことがわかると思います。
壁に沿って歩いているユーザーを検出するために、センサーが下を向く必要がある Kinect 主導のエクスペリエンスを構築しました。openTSPS を使用して、カメラ入力を取得し、ブロブ検出を行い、追跡された「人」を (この場合は) Processing アプリに引き渡しました。それは私たちにとって本当にうまくいきます。