0

これまで、Kinectセンサーが1か所にあるアプリケーションを作成することができました。私は音声認識EmguCV(open cv)とAforge.NETを使用して、画像の処理、オブジェクトの学習と認識を支援しました。それはすべて正常に機能しますが、常に改善の余地があり、私はいくつかの問題を提起しています:[最初の3つを無視して4番目の答えが欲しい]

  1. フレームレートはひどいです。30 fpsのようになっているはずなのに、5fpsのようです。(これはすべての処理なしです)私のアプリケーションは正常に実行されており、カメラから色と深度フレームを取得して表示します。それでもフレームレートは悪いです。サンプルは約25fpsで動作します。サンプルからまったく同じコードを実行したとしても、それはただ動揺することはありません。:-([コードは必要ありません。考えられる問題を教えてください。]

  2. kinectとラップトップを搭載する小さなロボットを作りたいと思います。マインドストームキットを使ってみましたが、低トルクモーターではうまくいきません。これをどのように達成するか教えてください。

  3. 機内で電力を供給するにはどうすればよいですか?Kinectがモーターに12ボルトを使用していることを私は知っています。しかし、それはACアダプターから得られます。[ケーブルを切断して12ボルト電池に交換したくない]

  4. 最大の質問:この世界でどのようにナビゲートするのか。A*およびフラッドフィルアルゴリズムを実行しました。私はこの論文を千回も読んだのですが、何も得られませんでした。私はナビゲーションアルゴリズムを頭に入れていますが、一体どうやってそれ自体をローカライズするのでしょうか?[GPSやその他のセンサーは使用しないでください。目、つまりKinectのみを使用してください]

私を助けてくれるのは素晴らしいことです。私は初心者なので、すべてを知っていると期待しないでください。私は2週間インターネットを利用していましたが、運がありませんでした。

どうもありがとう!

4

1 に答える 1

4

ローカリゼーションは、ロボットが配置される環境 (家の地図など)に関する事前知識に依存するため、トリッキーな作業です。ローカリゼーションとマッピングを同時に行うためのアルゴリズムは存在しますが、それらはドメイン固有である傾向があり、ロボットを任意の場所に配置し、その環境を自律的にマッピングさせる一般的なケースには適用できません。

ただし、ロボットその環境がどのように見えるかについて大まかな (確率論的な) アイデアを持っている場合は、モンテカルロ ローカリゼーションが適切な選択です。大まかに言うと、次のようになります。

  1. まず、ロボットは、既知の環​​境内のどこにいる可能性があるかについて、多数のランダムな推測 (粒子と呼ばれます) を行う必要があります。
  2. センサーからの更新ごとに (つまり、ロボットが短い距離を移動した後)、現在のセンサー データの統計モデルを使用して、それぞれのランダムな推測が正しい確率を調整します。これは、ロボットが 360 度のセンサー測定を行う場合に特にうまく機能しますが、完全に必要というわけではありません。

インペリアル・カレッジ・ロンドンでのアンドリュー・デイヴィソンによるこの講義は、関連する数学の概要を説明しています。(作成しようとしているものを考えると、コースの残りの部分も非常に興味深いものになるでしょう)。幸運を!

于 2012-05-21T10:52:39.877 に答える