問題タブ [3d-reconstruction]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
873 参照

mesh - 3D 三角メッシュからサーフェスを再構築

3D 三角形メッシュで構成される 3D モデルがあります。メッシュを異なるグループに分割したいと考えています。各グループは、平面、円柱面などの面を表します。これは表面認識/再構成のようなものです。

入力は、3D 三角形メッシュのセットです。出力は、サーフェスごとのメッシュ セグメンテーションです。

私の要件を満たすライブラリはありますか?

0 投票する
2 に答える
19811 参照

matlab - カメラ座標系の3D座標を2Dから再構築します-サイドコンディションのあるピクセル

サイドコンディション(MatLab)を使用して、カメラ画像の2Dピクセル座標から3D座標を再構築しようとしています。私は外因性と内因性のカメラパラメータを持っています。

同種変換を使用して、3D座標を初期の世界座標系からカメラ座標系に変換できます。したがって、ここに、変換行列R_world_to_Cameraに外部パラメーターがあります。

固有のパラメーターについては、Caltechの「MatLab用カメラキャリブレーションツールボックス」を使用して、次のパラメーターを取得しました。

次に、Camera-Calibration-Matrix K(3x3)を取得します。

これを使用して、3D-> 2D --Projection-Matrix P(3x4)を次のように計算できます。

World-Coordinates [X、Y、Z] _Worldのポイントを変換するとき、最初にそれをCamera-Coordinatesに変換してから、2Dに投影します。

だから私の質問は今これらのステップを逆にする方法ですか?副次的な条件として、Z座標を既知(世界座標ではゼロ)に設定したいと思います。Stackoverflowでここで提案されたソリューションを試しましたが、どういうわけか間違った座標を取得します。何か案が?すべての助けは大歓迎です!

0 投票する
1 に答える
1633 参照

c++ - Opencv; c++; 線形三角測量法の out Matrix から点群点 (x,y,z) を抽出する

xnaで3Dオブジェクトを再構築しようとしています。そのために点群点が必要です。3D 再構成のために、キャリブレーションされていない画像シーケンスの下でコンセプトを実装しました。私は今、線形三角形分割にこだわっています。その結果、マトリックスに値があります。メッシュを描画するための (x,y,z) ポイントのリストを取得するための次のステップは何ですか。

0 投票する
1 に答える
262 参照

c# - C ++コードを使用したビジュアルC#でのピンボークの問題

reconstructMe SDKの「1分」の例をコーディングしようとしていますが、SDKはC ++であると思います。彼らのページ(ここ)の指示に従ってコンソールアプリケーションを正常に作成しましたが、単純なUIを作成したいと思います。ただし、私はVisual c ++にあまり精通していないため(c ++についてはよく知っています)、C#の例を試しました(UIデザインにはかなり精通しています)が、提供されているC#コードを使用するとこのエラーが発生します(ここ):

PInvoke関数'Lala!Lala.Reme :: reme_context_compile'を呼び出すと、スタックのバランスが崩れます。これは、マネージドPInvokeシグニチャがアンマネージドターゲットシグニチャと一致しないことが原因である可能性があります。PInvokeシグニチャの呼び出し規約とパラメータがターゲットのアンマネージドシグニチャと一致することを確認してください。

プロジェクトの設定などの問題だと思います。

0 投票する
1 に答える
1533 参照

3d - キャリブレーションされたカメラ画像からの 3D 再構成

私は3D再構築に取り組んでいます。そして今、一対の画像を考えてみます。対応する点のセットがあります。カメラの詳細があります。たとえば、フォーカスの詳細、回転および平行移動マトリックス (4*4) があります。ポイントを3D(三角測量)で投影したい。だから私が知っている限り、因子代数によってそれはかなり簡単です。しかし、私はまだそれを明確に理解する必要があります。これに従う方法について誰かが考えを持っていますか? 私はmatlabに取り組んでいるので、それを実装する必要があります! 私はまた広すぎるかもしれません。しかし、私を導いてください!

0 投票する
1 に答える
2387 参照

image-processing - コンピュータビジョンの滑らかさの制約

陰影から形の本を読み、 「滑らかさの制約」の方程式に出会いました。この方程式の意味がよくわかりません。誰かが私がこれを少し説明するのを手伝ってもらえますか?私の質問を読んでくれてありがとう。

この方程式の画像をアップロードしたいのですが、残念ながら私は新会員なので写真をアップロードできず、ここに数式を書く方法がわかりません。

0 投票する
1 に答える
5254 参照

image-processing - 3D 顔再構成のアルゴリズム

プロジェクト: 3D 顔の再構成

入力: 2D 正面顔画像 出力: 3D 顔 再構成および表現シミュレーション プラットフォーム: Matlab または Opencv cpp。

調査の結果、3D Morphable Models (3DMM) アルゴリズムが私のプロジェクトの出発点として適していることがわかりました。しかし、アルゴリズムを実装するための Basel Face Model (3D 顔データベース) がありません。ただし、 http://gavab.escet.urjc.es/recursos_en.htmlから GavabDB をダウンロードしました。正面画像からの 3D 顔再構成用に GavabDB を使用して 3DMM を開発できますか? データセットの説明ドキュメントを読んだ後、Gavab が 3D スキャンのテクスチャ データを提供していないことに気付きました。テクスチャデータは必須ですか?

出力品質は、モデリングに使用する 3D データベースに依存しますか?

0 投票する
1 に答える
1867 参照

image-processing - 歪んだ画像から取得したピクセルの元の座標を取得する

sourceImageから抽出された4つのコーナーがあります:

これらの4つのコーナーは、次のようにdestinationImageにワープされます。

今私の質問は:

destinationImageから取得したポイントp(x、y)があります。元のsourceImageでこのポイントの座標を取得するにはどうすればよいですか。

つまり、warpPerspectiveMatrixを使用して、getPerspectiveTransformの反対の作業を実行したいと思います。

0 投票する
1 に答える
822 参照

algorithm - フォン反射モデルのパラメーター

質問: Web カメラで撮影した顔画像のフォン反射モデルのパラメーターを教えてもらえますか?

詳細:

この論文Vetter & Blanz, 2003 のように、3D Morphable Model を使用して 2D 画像の 3D 再構成を行っています。

ニュートン法を使用して最適化する必要があるコスト関数があります。Newton メソッドの初期値を指定する必要があります。

次の式は、画像のフォン反射モデルです。アンビエント、ディフューズ、およびスペキュラー コンポーネントが表示されます。

ここに画像の説明を入力

フォン反射モデル wiki

フォン パラメータ: Ks、Kd、Ka、α、Lm、V

ニュートン法を使用して上記のパラメータを推定しています。画像は人間の顔で、カメラは Web カメラです。

以下の値を与えました: Ks = Kd = Ka = 0.6 α = 5 Lm = [0 1 1] V = [0 0 1]

上記の値と、パラメーターの適切な初期化値についてコメントできる人はいますか??

0 投票する
0 に答える
512 参照

image-processing - opencvのステレオ対応でオブジェクトの境界がはっきりしないのはなぜですか

ほぼ平行で、互いに離れていない 2 枚の写真が得られました。
OpenCVを使って視差マップ(ステレオ対応)を作成しようとしています。
現実世界のシナリオで使用しようとしているため、チェス盤のキャリブレーションの使用は少し非現実的です。
そのため、私はstereoRectifyUn calibrationd()を使用しています。

整流に対応する 2 つの異なるセットを使用して、結果を比較しようとしました。

  • ポイントを手動で選択 (ポイント & クリック)
  • SURF から生成され、RANSAC でフィルタリングされたポイント

入力画像 1: http://i.stack.imgur.com/2TCi3.jpg
入力画像 2: http://i.stack.imgur.com/j1fFA.jpg

(修正などに使用する前に、画像の歪みを修正することに注意してください)

SURF と RANSAC で調整された画像:
(1 と 2 の順序で):
http://i.stack.imgur.com/pwbUw.jpg
http://i.stack.imgur.com/mb7TM.jpg

手動で選択したポイントを使用して画像を修正しました (これはより不正確です!):
http://i.stack.imgur.com/Bodeg.jpg

さて、問題は、結果を見ると、サーフ バージョンがほぼ完全に修正されていることがわかります (エピポーラ線は非常によく整列しています)。
手動で選択された点のバージョンはかなりひどく修正されていますが、エピポーラ線はどこにも整列していません。

しかし、両方の整流を使用して openCV の sgBM() の結果を見ると、
手動ポイントの結果:
http://i.stack.imgur.com/N8Cyp.png
SURF ポイントの結果:
http://i.stack.imgur. com/tGsCN.jpg

表示されている視差/深さは、SURF ポイント (適切に修正されたバージョン) を使用すると、より正確/正確になります。そこに驚きはありません。
ただし、実際に検出されたオブジェクト ピクセルとオブジェクト境界は、正しく修正されていないバージョンの方がはるかに優れています。
たとえば、ペンが実際にはペンであり、ペンの形をしていることがわかります。これは、修正された視差マップが正しくなく、修正されたマップでは見られません。
質問は、なぜですか? どうすれば修正できますか?(私は sgBM() パラメーターをいじってみました。それらが両方で同じであることを確認しましたが、効果はありません。何らかの理由で、ひどく修正された画像が見栄えがするのは、さまざまな修正だけです(オブジェクト境界まで))。