9

拡張現実機能を備えたアプリケーションを実装する予定です。機能の 1 つで、エゴモーションの推定が必要です。固定オブジェクトのある空間で、カメラだけが動いています (何も動かないか、小さなパーツだけが動くため、無視される可能性があります)。

だから私はたくさん検索して読んで、OpenCVに出くわしました。ウィキペディアは、エゴモーションに使用できると明示的に述べています。しかし、それに関するドキュメントが見つかりません。

  1. OpenCV のオブジェクト検出方法を使用して、エゴモーション アルゴリズムを自分で実装する必要がありますか? (オブジェクトはカメラまでの距離に応じて異なる速度で移動するため、非常に複雑になると思います。また、回転も考慮する必要があります。)
  2. もしそうなら、どこから始めるべきですか?スケーリングと回転をサポートする Kanade-Lucas-Tomasi フィーチャ トラッカーの適切なコード例はありますか?

PS: vuforiaのようなマーカー ベースのフレームワークについても知っていますが、マーカーの使用は、考えられるビュー ポイントを制限するため、防止したいと考えています。

Update 2013-01-08: Egomotion Estimation は Visual Odometry として知られていることを知りました。ということで、タイトルを更新しました。

4

2 に答える 2

4

ここでは、オプティカル フローに基づく単眼視覚オドメトリの適切な実装を見つけることができます。

emgucv (C# opencv ラッパー) を使用してコーディングされていますが、純粋な opencv に戻す際に問題は発生しません。

于 2013-01-11T07:54:23.567 に答える
2

エゴモーション (またはビジュアル オドメトリ) は通常、オプティカル フローに基づいており、OpenCv には、オプティカル フローを計算するためのモーション分析とオブジェクト追跡機能があります( のような特徴検出器と組み合わせて使用​​しますcvGoodFeaturesToTrack())。

この例は役に立つかもしれません。

完全な解決策ではありませんが、少なくとも正しい方向に進む可能性があります。

于 2013-01-08T18:04:40.020 に答える