私は、MicrosoftKinectを使用してオブジェクトの3Dモデルを作成するプロジェクトに取り組んでいました。Microsoft Kinect SDK、OpenNIを使用してオブジェクトのクラウドポイントをさまざまな角度でキャプチャし、ICPを使用してオブジェクトの3Dをマッピングおよび作成することを計画していました。上記の説明が間違っている場合は、訂正してください。私はこれでアマチュアなので、正しい方向に進んでいるかどうかは本当にわかりません。
私のハードウェアの詳細は次のとおりです-MicrosoftKinect、Windows 7-64ビット、Microsoft Visual Studio 2010、Microsoft Kinect SDK、OpenNI、Primesense、NITE(すべて.exeまたは自己抽出機能を使用してインストールされ、cmakeを使用しませんでした...私は親切ですそれを使うのにうんざりしているのです!私は非常に多くのエラーに遭遇したので!)
今のところ、Kinectを接続することができ、オンラインでいくつかのデモチュートリアルを使用して、KinectのRGBデータと深度マップを表示することができました。私はOpenNIについて読んでいましたが、それについてもあまり進歩することができませんでした。(C ++とC#にはコードがあります)今、質問-
オブジェクトの各画像の「クラウドポイント」を取得するにはどうすればよいですか?これにはOpenNiを使うべきですか?
各画像のクラウドポイントを取得した後、ICPアルゴリズムを実行する予定です。これについて学び、実装するために使用できる詳細やリンクはありますか?
ICPアルゴリズムを実行した後、再作成された3Dを表示する必要があるので、Visual Studio 2010自体を使用して表示する必要がありますか?
.plyファイルを使用して3Dを作成するのに役立つ「Meshlab」のようなソフトウェアに出くわしました。.plyデータはKinectの深度マップから取得されます...これは私が見ることができる別の方向ですか?
ありがとうAditya