大学のロボットクラスのタスクを実装しようとしています。プロジェクトの主なタスクは、KUKA-youbot ロボットでカップをつかむことです。
私が見つけた主な問題は、プロジェクトのビジョン コンピューティングの部分に関するものです。より正確には、私は Kinect (ロボット アームに取り付けられます) を使用しており、最初はこの手順を使用してカップを見つけることを考えていました。
- 開始する前にカップの写真を撮る (非常に近い)
- openCV を使用して、ロボット アームに取り付けられた kinect からリアルタイムで画像のキーポイントとリアルタイム画像のキーポイントを計算します。
- この時点で、2 つの画像間のキーポイントを OpenCV でマッピングできます。
- 同じ瞬間に kinect から取得した 3D ポイント クラウド イメージを使用して、イメージの 2D ポイントをリアルタイムでマッピングします。3D 画像の重心を計算すると、カップの位置がわかります。
問題は、リアルタイム画像が (1 メートルのように) 近くにある場合、キーポイントの抽出とそれらの他のマッピングが適切に機能することです。それ以外の場合、特にシーンに他のオブジェクトがある場合、openCV アルゴリズムは他の重要な機能を検出し、マッピングが機能しません。
私はこれを使用しています: http://docs.opencv.org/doc/tutorials/features2d/feature_homography/feature_homography.html
最初の 2 つの写真でわかるように、ロボットはカップの近くにあり、すべてうまく いき ました。 http://postimg.org/image/9lhhzxk4z/
私のプロジェクトにより機能的な他の方法があるかどうかを知りたいです。私の最初のアイデアのような機能ベースではなく、モデルベースの何かかもしれません。
ありがとうルカ