2

特定の距離を置いて配置された異なる向きのカメラでシーンを見ている、相対的なカメラの姿勢推定の問題があります。最初に、5 ポイント アルゴリズムを使用して必須行列を計算し、それを分解して、カメラ 2 とカメラ 1 の R と t を取得します。

画像ポイントの 2 つのセットを 3D に三角測量し、3D-2D 対応に対して solvePnP を実行してチェックを行うのは良い考えだと思いましたが、solvePnP から得られる結果はかなり外れています。スケールはフレームごとに変わる可能性があるため、ポーズを「洗練」するためにこれを実行しようとしています。とにかく、あるケースでは、カメラ 1 とカメラ 2 の間で Z 軸に沿って 45 度の回転があり、エピポーラ ジオメトリの部分から次の答えが得られました。

Relative camera rotation is [1.46774, 4.28483, 40.4676]
Translation vector is [-0.778165583410928;  -0.6242059242696293;  -0.06946429947410336]

一方、ソルブPnP..

Camera1: rvecs [0.3830144497209735;   -0.5153903947692436;  -0.001401186630803216]
         tvecs [-1777.451836911453;  -1097.111339375749;  3807.545406775675]
Euler1 [24.0615, -28.7139, -6.32776]

Camera2: rvecs [1407374883553280; 1337006420426752; 774194163884064.1] (!!)
         tvecs[1.249151852575814;  -4.060149502748567;  -0.06899980661249146]
Euler2 [-122.805, -69.3934, 45.7056]

camera2 の rvecs と camera 1 の tvec で問題が発生しています。ポイントの三角形分割と solvePnP を含む私のコードは次のようになります。

points1.convertTo(points1, CV_32F);
points2.convertTo(points2, CV_32F);

 // Homogenize image points

points1.col(0) = (points1.col(0) - pp.x) / focal;
points2.col(0) = (points2.col(0) - pp.x) / focal;
points1.col(1) = (points1.col(1) - pp.y) / focal;
points2.col(1) = (points2.col(1) - pp.y) / focal;

points1 = points1.t();      points2 = points2.t();

cv::triangulatePoints(P1, P2, points1, points2, points3DH);

cv::Mat points3D;
convertPointsFromHomogeneous(Mat(points3DH.t()).reshape(4, 1), points3D);

cv::solvePnP(points3D, points1.t(), K, noArray(), rvec1, tvec1, 1, CV_ITERATIVE );
cv::solvePnP(points3D, points2.t(), K, noArray(), rvec2, tvec2, 1, CV_ITERATIVE );

そして、ロドリゲスを介して rvecs を変換してオイラー角を取得しています。どんなポインタも役に立ちます。ありがとう!

4

0 に答える 0