iPad アプリでは、拡張現実アプリのスタイルで、ユーザーがカメラでオブジェクトの幅を視覚化できるようにしたいと考えています。
たとえば、誰かが壁に対して本棚の幅を視覚化できるようにしたい場合、どうすればそれができるでしょうか? 幅を推定するアルゴリズムはありますか (つまり、5 フィート離れて立ってカメラを壁に向けている場合、カメラの 200 ピクセルは X インチを表します)。
探し始めるのに適したリソースはありますか?
iPad アプリでは、拡張現実アプリのスタイルで、ユーザーがカメラでオブジェクトの幅を視覚化できるようにしたいと考えています。
たとえば、誰かが壁に対して本棚の幅を視覚化できるようにしたい場合、どうすればそれができるでしょうか? 幅を推定するアルゴリズムはありますか (つまり、5 フィート離れて立ってカメラを壁に向けている場合、カメラの 200 ピクセルは X インチを表します)。
探し始めるのに適したリソースはありますか?
これを行うには、使用するカメラ、解像度、および被写界深度によって異なるため、自分で少し調査することをお勧めします。
大きな紙切れ (壁紙でも問題ありません) を用意し、指定された間隔で測定値を書き出すことをお勧めします。たとえば、紙に各足の距離マーカーを書き込むことができます。次に、紙を取り付けた壁からさまざまな距離に立って写真を撮るだけで、距離、解像度、および測定値が互いにどのように相関しているかの相関関係を確立し、これらの調査結果を使用して、独自のアルゴリズムを構築します。あなたは本質的にあなた自身の質問に答えました。