1

オブジェクトがあり、ある角度で kinect から RGB データと深度データを取得したとします。次に、別の角度からオブジェクトの 2 番目の写真を撮ることができるように、kinect を少し動かしました。両方の画像からの対応に基づいて、kinect カメラが元の位置からどれだけ移動および回転したかを判断する最良の方法を見つけようとしています。

私は特定の画像処理タスクに OpenCV を使用しており、2 つの 2D 画像から適切な対応を見つけるように見える SURF アルゴリズムを調べました。ただし、深度データは考慮されておらず、複数の画像ではうまく機能しないと思います。さらに、通信から翻訳/回転データを取得する方法がわかりません..おそらく私は間違った方向を見ていますか?

注: 私の長期的な目標は、複数の画像を「結合」して、すべてのデータから 3D モデルを形成することです。現時点では、キネクトが配置されている角度を指定すると多少は機能しますが、パラメーターを手動で指定するのではなく、対応関係を見つけることで、関連する「エラー」(つまり、あるべき場所からわずかにずれたポイント) を減らす方がはるかに良いと思います

4

0 に答える 0