私は頭脳のためにiPhoneを備えた追跡ロボットを持っています。カメラは 2 つあり、1 つは iPhone から、もう 1 つはスタンドアロンのカメラです。携帯電話には、GPS、ジャイロスコープ、加速度計、磁力計があり、ユーザーが誘発した加速度を重力から分離するセンサー フュージョンを備えています。一緒に携帯電話は、宇宙での自分の姿勢を検出できます。ロボットが以前に壁にぶつかった場合、少なくとも壁を避けるようにロボットに教えたいと思います。
そのようなロボットによって行われる Visual Simultaneous Location and Mapping のスターター プロジェクトを提案できる人はいますか? OpenSlam.org で C/C++ で書かれたプロジェクトを見ているので、Objective-C の実装に非常に感謝していますが、それらは私の最強のプログラミング言語ではありません。
私はレーザー距離計にアクセスできないので、Visual SLAM に関する記事、キーワード、または学術論文も役に立ちます。
ご意見ありがとうございます。