solvePnP アルゴリズムを使用して認識しようとすると、solvePnP 関数に入れたポイントの境界付近でのみサイズを計算するのに役立つデータを受け取ります。他のサイズは正しくありません。なんで?理由は - カメラのキャリブレーションが間違っていませんか?
つまり、ポイントの配列が(画像の ~ 15%)[A]
にあると仮定すると、近くのポイントのみが正しい結果になり、他のポイントは間違っています。しかし、 にある他の点の配列に対して同じことを行うと、 の近くでのみ機能する他の結果が得られます。配列の合計を使用すると、まったく間違った結果が返されます。なんで?[Blob]
[Blob]
[A1]
[Blob1]
[Blob1]
[A2] = [A] + [A1]