問題タブ [camera-calibration]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
4 に答える
1373 参照

c++ - 構成ファイルはどこに配置する必要がありますか?

次のコードは、OpenCVのカメラキャリブレーションプログラムの一部です。しかし、プログラムを実行するとエラーが発生します。

構成ファイルを開くことができませんでした

構成ファイルを配置しましたc:/Nn/default.xmlが、それでもこのエラーが発生します

コードの何が問題になっているのか教えていただけますか?ファイルを間違ったパスに配置しましたか?

0 投票する
1 に答える
202 参照

c++ - ステレオキャリブレーション中にアクセス違反?

ステレオ キャリブレーションでデバッグを実行しているときに、アクセス違反エラーが発生します

コードは次のとおりです

これらは次のように初期化されます。n は固定整数です。

私を助けてください.....

0 投票する
1 に答える
2308 参照

c++ - 視差マッピングにおけるステレオビジョン

O'reillyの本のopencvテキストブックの例にあるように、ステレオビジョン深度マッピングを実装しています。

このコードを実装している間、私のカメラは両方とも水平であり、両方とも同じではありません。コードを実行した後、非常に奇妙な結果が得られます。これらの奇妙な結果がカメラの見当識障害だけによるものなのか、コード内に問題があるのか​​ を確認したいのですが、助けてください。

視差マップの写真は、このリンクに記載されています 。1つはウェブカメラ、もう1つはUSBカムです。

0 投票する
2 に答える
852 参照

opencv - ステレオカメラ-外部マトリックス

ステレオカメラをキャリブレーションし、外部マトリックスを取得しました。1台目と2台目のカメラの座標系間の並進ベクトル「T」を知っています。

カメラ間のベースライン距離を計算するにはどうすればよいですか。

0 投票する
2 に答える
3046 参照

opencv - cvuncompresspointsの新しいカメラマトリックスとは何ですか。

の新しいカメラマトリックスを理解する上で問題に直面していcvUndistortpointsます。ステレオキャリブレーション自体でカメラのカメラマトリックスを取得し、cvuncompresspointsから取得したcvstereorectifyで新しいカメラマトリックスを渡さなければならない理由。の出力後のカメラマトリックスとどの程度正確に新しいカメラマトリックスが異なりcvUndistortPointsますか?

0 投票する
2 に答える
1624 参照

opencv - cvReprojectImageTo3D および CV_32FC3 に関する問題

あなたの助けが必要です。ステレオペアを使用して、ステレオキャリブレーション、整流を実装しました。私はかなり合理的な視差画像を持っています。私が直面している問題は cvReprojectImageTo3D にあります。そして、正しい方法で修正しました。宣言は以下の通り

disp は、ステレオ ペアに対して取得された視差画像です。そして、Image3D の showimage コマンドを実行すると、カラフルな分割が取得されます。私の疑問は、なぜそうなのかということです。
結果写真のリンクを以下に添付します

https://plus.google.com/photos/110965556771924534380/albums/5745356738809417329/5748680803335389906

私が持っているもう1つの疑問は、このimage3Dがどのように保存されているかです。CV_32FC3 は、最初のチャネルが x 値を与え、2 番目が y を与え、3 番目が z を与えることを意味しますか?

0 投票する
6 に答える
14536 参照

opencv - カメラの内因性/外因性でポイントを再歪ませる

2Dポイントのセットが与えられた場合、どうすればその反対を適用できますundistortPointsか?

私はカメラの本質を持っていて、distCoeffs(たとえば)正方形を作成し、カメラがレンズを通してそれを見たかのようにそれを歪めたいと思っています。

ここで「歪んだ」パッチを見つけました:http://code.opencv.org/issues/1387しかし、これは画像にのみ適しているようです。まばらなポイントで作業したいと思います。

0 投票する
0 に答える
971 参照

computer-vision - libfreenect - 深さ登録理論

私は、openFrameworks で ofxKinect を使用して、Kinect をしばらくハッキングしてきました。私は次のようにして、組み込みの深度登録を使用しています。

これは、基礎となる libfreenect ライブラリによって提供される登録機能を呼び出すと思います。libfreenect のソース コードを調べて、深度マップを RGB 画像に登録するために行っていることの背後にある理論を理解しようとしましたが、本当に混乱しています。

コードはこちら: https://github.com/ofTheo/ofxKinect/blob/master/libs/libfreenect/registration.c

このコードによって実装されている手法の背後にある理論が何か知っている人はいますか? 同様の手法を採用している論文を教えていただければ、非常に役に立ちます。

0 投票する
1 に答える
2962 参照

opencv - カメラキャリブレーション(OpenCV 2.3)-歪みパラメーターの使用方法は?

いくつかのマーカーが付いた剛体の画像のセットがあります。これらのマーカーの1つに原点を持つ座標系を定義しました。この座標系と、カメラの原点で定義された座標系との間の回転と平行移動を取得したいと思います。

最初にカメラをキャリブレーションする必要があることに気付くまで、しばらくの間POSIT(これに続いて)を試しましたが、許容できる結果は得られませんでした。これに基づいて、キャリブレーションボディで取得したいくつかの画像を使用して、カメラ固有のマトリックスと歪みパラメーターを取得しました。また、1.276という悪い(?)再投影エラーが発生しました。

  1. 再投影エラーが高すぎませんか?どうすれば改善できますか?(私はより多くの画像を使用し、値のわずかな減少を達成しました)。
  2. POSITで歪みパラメータを使用できますか?どのように?

ありがとう。


再投影エラー(〜1.3から〜0.7に変更)を減らす唯一の方法は、XML構成ファイルで次のパラメーターを「0」に設定することです。

より多くの画像を使用してもエラーは変わりません。この新しいエラーが許容できるかどうかはまだわかりません。

POSITでキャリブレーションによって出力として得られた値(つまり、焦点距離と光学中心)を使用しましたが、結果は、事前キャリブレーション値を使用したときに得られた結果と非常に似ていました。歪みパラメータをPOSITで処理する方法がわからないため、使用しませんでした(結果に違いが生じる可能性がありますか?)。

キャリブレーション後に取得したカメラマトリックス:

そして私がPOSITでそれを使用した方法:

新しい中心座標とキャリブレーション画像の中心座標の差を計算し、その差をPOSITで作業している画像の中心座標に適用しました。

2つの異なる画像でPOSITを使用しています。理論的には、モデルとカメラの座標系の間で0度(最初の画像)と10度(2番目の画像)の回転が必要です。各画像の回転行列を取得した後、カメラ座標系で単位ベクトルを定義し、POSITで指定された2つの回転行列の逆行列で乗算して、モデル座標系で計算し、モデルに2つの新しいベクトルを取得しました。座標系。モデル座標系でこれら2つのベクトル間の角度を計算すると、出力は-10度になるはずです。

誰かが私がどこで間違っているのか考えていますか?

0 投票する
1 に答える
4343 参照

matlab - ポーズ推定

あなたの助けを借りて、私はCvPositを使用してカメラのポーズを推定することができました(このリンクhttp://www.aforgenet.com/articles/posit/を使用)。私はMATLABコードを使用しています。

今、私は画像座標に3Dポイントを投影することによって、そのポーズを確認しようとしています。詳細は以下のとおりです。

  1. キューブのイメージポイントとワールドポイントは次のとおりです。

    /li>
  2. 得られたポーズは次のとおりです。

    私の例では、焦点距離として640を使用しました。このポーズから、3Dポイントを使用して投影し直して、2Dイメージポイントを取得します。理想的には、私は同じ点を取得する必要があります。しかし、私はそれを得ることができません。私はMATLABで次の方法を使用しています。

  3. まあ言ってみればP = [28;28;28;28;1] % 4 X 1 matrix for a 3D point

    取得x = 15251y = 27447ます。ここで何が間違っているのかわかりません。私を助けてください!!