金属製の壁に磁石でぶら下がっている軽量のロボットがあります。その位置を追跡しようとしています。
ロボットが 6 インチ x 6 インチ (奥行き x 4 インチ) の場合、Kinect レンジファインダーは 8 フィート x 6 フィートの壁のどこでも追跡できる十分な範囲と解像度を持っていますか? もしそうなら、どのようなエラーが予想されますか?
ハードウェアに関する適切なドキュメントが見つかりません。誰かがいくつかにリンクできる場合は、数字を処理できます。
金属製の壁に磁石でぶら下がっている軽量のロボットがあります。その位置を追跡しようとしています。
ロボットが 6 インチ x 6 インチ (奥行き x 4 インチ) の場合、Kinect レンジファインダーは 8 フィート x 6 フィートの壁のどこでも追跡できる十分な範囲と解像度を持っていますか? もしそうなら、どのようなエラーが予想されますか?
ハードウェアに関する適切なドキュメントが見つかりません。誰かがいくつかにリンクできる場合は、数字を処理できます。
はい。ただし、Kinect を使用しても、他のカメラ システムに比べて大きなメリットはありません。
Kinect の RGB カメラは、3 つのチャネルを 1280x960 の解像度で保存します ( source )。必要なデータを引き出すにはそれで十分ですが、それほど高い解像度は必要ないかもしれません。また、同程度の(またはそれ以上の)解像度のカメラが安価に入手できる場合もあります。
赤外線カメラと深度情報は、ロボットが常に壁にぶつかっているように聞こえるため、有用な情報を提供しない可能性があります。
そのことを念頭に置いて、Kinect API (公式またはサードパーティ) は何も提供しません。これらの API は人間を想定しており、それに応じて情報を処理します。方法を教えない限り、任意のブロブを追跡することはできません (つまり、Kinect を使用する利点はありません)。
最終的には、ロボットの追跡に役立つOpenCVなどのライブラリを使用する必要があります。OpenCV は、Kinect を使用しているか、通常の古い Web カメラを使用しているかを気にしません。
編集:
照明条件が変化する場合は、IR と深度のデータを使用できます。Kinect は絶対にロボットを見ることができますが、前述のように、API の組み込みアルゴリズムは役に立ちません。深度ポイント データに生の状態でアクセスして、ロボットを見つけて追跡できます。深度データがあるため、ロボットを「見る」だけでなく、Z 座標を調べることで位置を特定することもできます (たとえば、ロボットが壁にある唯一のものであると仮定すると、壁に等しくない Z 座標はすべておそらくロボット)。