焦点距離、ピクセル数、寸法、および位置 (GPS から) がわかっている画像が多数あります。それらはすべて、市販のカメラで地上で撮影された高斜めの方法です。
画像内の特定のピクセル間のユークリッド距離を計算するための最良の方法は何ですか? それが本当に可能であれば。
焦点距離、ピクセル数、寸法、および位置 (GPS から) がわかっている画像が多数あります。それらはすべて、市販のカメラで地上で撮影された高斜めの方法です。
画像内の特定のピクセル間のユークリッド距離を計算するための最良の方法は何ですか? それが本当に可能であれば。
完全なランドスケープ モデリングを探しているのではなく、単純な概算を探していると仮定すると、これはそれほど難しいことではありません。基本的に、画像の最初の近似は、平面に沿って見える既知の焦点距離を持つカメラに縮小されます。そのため、システムのモデルを 3D で非常に簡単に作成できます。これは、チェッカーボードのデモを見ている従来のオブザーバーからそれほど離れていません。
通常、グラフィックの問題は、3D モデルを 2D に投影して、画像をレンダリングできるようにすることです。現在、ほとんどのプログラムはこれを行うために API (OpenGL など) を使用していますが、方程式はそれほど複雑でも理解しにくいものでもありません。私は 3D Graphics In Pascalの例を使って最初のコードを書きましたが、これは明確な論文ですが、他にも同様のソースがたくさんあるでしょう (ただし、ハードウェア API が常に使用されるため、最近はおそらく少なくなります)。
これの便利な点は、投影方程式が可換であることです。つまり、画像とモデルに点がある場合、投影を介してデータを実行して、元の 3D 座標を取得できます。これが目的です。
したがって、いくつかのアプローチが提案されています。上記を直接実行するコードを記述するか、おそらくもっと単純に OpenGL を使用します (これにはGLUT ツールキットをお勧めします)。あなたの数学が良く、行列を操作しても問題が発生しない場合は、前者をお勧めします。ソリューションがより厳密になり、興味深いものになるためです。それ以外の場合は、OpenGL アプローチを使用してください。カメラ/平面の近似をかなり早い段階でカメラ/球体に変えたいと思うでしょう。
これがニーズに十分でない場合、理論上は実際のランドスケープ モデリングに進むことが可能です。SRTMデータは自由に利用できます (最も使いやすい形式ではありませんが) ので、GPS 位置と組み合わせて、上記と同じアルゴリズムを適用するメッシュ モデルを作成できるはずです。