1

オブジェクトのx、y、z座標を取得するために、Kinectセンサーを使用してオブジェクトを識別することに取り組んでいます。

これに関連する情報を見つけようとしていますが、あまり見つけることができませんでした。ビデオも見ましたが、情報やサンプルコードを共有している人はいませんか? これは私が達成したいことですhttps://www.youtube.com/watch?v=nw3yix3XomY

おそらく、同じ質問をする人はほとんどいないかもしれませんが、私は Kinect とこれらのライブラリに慣れていないため、これ以上のガイダンスは必要ありません。

Kinect v1 を使用してオブジェクトを検出できないことをどこかで読みました。オープン CV やポイント クラウド (pcl) などのサードパーティ ライブラリを使用する必要があります。

サードパーティのライブラリを使用しても、Kinect センサーを介してオブジェクトを正確に識別する方法を誰かが教えてくれますか?

本当に役に立ちます。

ありがとうございました。

4

1 に答える 1

1

リンクしたビデオの作成者がコメントで述べたように、このPCL チュートリアルに従うと役立ちます。既にお気づきのように、スタンドアロン SDK を使用してこれを実現することはできない場合があります。PCL に頼ることで、車輪の再発明を避けることができます。

そこにあるアイデアは次のとおりです。

  1. クラウドをダウンサンプリングして、次のステップで処理するデータを減らします (これにより、ノイズも少し減少します)。
  2. キーポイント/機能 (つまり、何らかの変換に対して不変のままであるポイント、領域、テクスチャ) を識別します。
  3. これらの機能の数学的表現であるキーポイント記述子を計算します。
  4. 各シーン キーポイント記述子について、モデル キーポイント記述子クラウドへの最近傍を見つけ、それを対応ベクトルに追加します。
  5. キーポイントでクラスタリングを実行し、シーン内のモデルを検出します。

チュートリアルのソフトウェアでは、ユーザーがモデル ファイルとシーン ファイルを手動でフィードする必要があります。リンクしたビデオのように、ライブフィードではそれを行いません。

ただし、プロセスはかなり似ているはずです。検出がどれだけCPUを集中的に使用するかはわかりません。そのため、パフォーマンスをさらに調整する必要があるかもしれません.

フレームごとの検出が整ったら、フレーム全体でオブジェクトを実際に追跡することを考え始めることができます。しかし、それは別のトピックです。

于 2016-08-16T09:27:57.293 に答える