拡張現実機能を備えたアプリケーションを実装する予定です。機能の 1 つで、エゴモーションの推定が必要です。固定オブジェクトのある空間で、カメラだけが動いています (何も動かないか、小さなパーツだけが動くため、無視される可能性があります)。
だから私はたくさん検索して読んで、OpenCVに出くわしました。ウィキペディアは、エゴモーションに使用できると明示的に述べています。しかし、それに関するドキュメントが見つかりません。
- OpenCV のオブジェクト検出方法を使用して、エゴモーション アルゴリズムを自分で実装する必要がありますか? (オブジェクトはカメラまでの距離に応じて異なる速度で移動するため、非常に複雑になると思います。また、回転も考慮する必要があります。)
- もしそうなら、どこから始めるべきですか?スケーリングと回転をサポートする Kanade-Lucas-Tomasi フィーチャ トラッカーの適切なコード例はありますか?
PS: vuforiaのようなマーカー ベースのフレームワークについても知っていますが、マーカーの使用は、考えられるビュー ポイントを制限するため、防止したいと考えています。
Update 2013-01-08: Egomotion Estimation は Visual Odometry として知られていることを知りました。ということで、タイトルを更新しました。