私はマーカーのない拡張現実アプリケーション (別名マーケットレス AR) のエンジンで作業しています。SURF アルゴリズムから取得した関心点を使用して、画像内のポイントを識別し、それらのポイントを参照として使用して情報を描画しますが、 2D 情報 (検出された関心点) を 3D モデルに変換して、3D 座標空間にマッピングし、3D オブジェクトをシーンにレンダリングする最良の方法。それを行うアルゴリズムはありますか?
質問する
157 次
1 に答える
1
これは非常に幅広い質問です。コンピューター ビジョンの分野を読む必要がありますが、簡単に言うと、次のアプローチを取ることになります。カメラと世界の関係を説明する、完全に調整されたカメラが必要です。このモデルを使用すると、画像内の点と世界の 3D 線の間で変換できます。画像内の 1 つの点が世界の多くの点の投影である可能性があるため、深さを知らずに実際の 3Dポイントを取得することはできないことに注意してください。.
于 2012-12-28T14:41:51.383 に答える