Kinect の使用を開始しようとしています。これには深度検出カメラが搭載されていますが、幅/高さ/長さの測定に関するガイダンスは見当たりませんでした。
オブジェクトがカメラ (深度センサー) から離れている距離と、その範囲での Kinect の視野を計算してから、オブジェクトが占めるピクセル数を計算することですか?
ドット クラウドからメッシュまたは何かを実行できるようにしたいのですが、どこから始めて、オブジェクトの適切な幅/高さの測定値を取得するかを理解するのに苦労しています。
Kinect の使用を開始しようとしています。これには深度検出カメラが搭載されていますが、幅/高さ/長さの測定に関するガイダンスは見当たりませんでした。
オブジェクトがカメラ (深度センサー) から離れている距離と、その範囲での Kinect の視野を計算してから、オブジェクトが占めるピクセル数を計算することですか?
ドット クラウドからメッシュまたは何かを実行できるようにしたいのですが、どこから始めて、オブジェクトの適切な幅/高さの測定値を取得するかを理解するのに苦労しています。
これはかなり複雑な作業であり、ここ Stackoverflow のいくつかの段落では答えられません。その理由は、他の知識の上に構築された多くの知識だからです。たとえば、優れたRorresなどを使用して線形代数を読むことから始めます。
点群からメッシュを作成することは複雑な作業であり、現在使用されている事実上のアルゴリズムはありません。最も一般的なアプローチは、最初に離散化された切り捨て符号付き距離関数 (TSDF)を作成し、次にマーチング キューブなどを使用してメッシュを取得することです。もう 1 つのアルゴリズムはDelaunay 三角形分割です。
s-hullプロジェクトによって提供される ac# 実装もあります。
Jarrett Webb、James Ashley による本 Microsoft Kinect SDK を使用した Kinect プログラミングの開始 の第 3 章に、幅、高さ、距離の計算方法のサンプルがあります。
コードは apress.com からダウンロードできます。
これは少し前に尋ねられたことを認識していますが、価値があるのは、ユーザーの身長を計算するためのより簡単な方法を示すchannel9.msdnに関する記事です。HipLeft
、HipCenter
、およびで同様の手法を使用しHipRight
て、幅を推定できると思います。
リンクからプロジェクト情報の URL をたどると、より詳細な情報が表示されます。