問題タブ [slam-algorithm]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - スキャン マッチング アルゴリズムは、平行移動には間違った値を与えるが、回転には正しい値を与える
すでに robots.stackexchange に投稿しましたが、関連する回答はありませんでした。
私は現在、ロボットで SLAM ソフトウェアを開発しており、オドメトリの問題を解決するためにスキャン マッチング アルゴリズムを試しました。
この記事を読みました: センサー変位推定のためのメトリックベースの反復最近点スキャンマッチング
非常によく説明されていることがわかり、記事に記載されている式に厳密に従ってアルゴリズムを実装しました。
そこにPythonでの私の実装を見ることができます: ScanMatching.py
私が抱えている問題は、テスト中に正しい回転が見つかったが、翻訳が完全に間違っていたことです。翻訳の価値は非常に高いです。
私のコードで何が問題になる可能性があるか考えていますか?
それ以外の場合は、Mathematics Stack Exchange に質問を投稿する必要がありますか?
何度もテストしたので、ICP の部分は正しいはずですが、最小二乗最小化では良い結果が得られないようです。
お気づきのように、私は多くの bigfloat.BigFloat 値を使用しました。これは、最大フロートがいくつかの値を含めるのに十分な大きさでない場合があるためです。
robotics - スラムアルゴリズムに基づくロボティクスプロジェクト
私はロボット工学の初心者です。スラム アルゴリズムに基づいたロボット プロジェクトを作成したいと考えています。私は多くのアルゴリズムを知っており、どの言語でも実装できる自信がありますが、画像処理とハードウェアに基づいたアイデアはありません。それで、私が自分からスラムベースのロボティクスプロジェクトを作成できることを確認した後、誰でもスラムベースのロボティクスプロジェクトに基づいてチュートリアルを提供できますか?
また、誰かがそのためのビデオ講義シリーズをくれれば、とても役に立ちます. 前もって感謝します。
c++ - kinect 軌跡マトリックスを 4x4 ホモジニアス マトリックスに変換する方法 (例)
最近、RGBD-Slam を使用して、kinect カメラの軌跡を取得しました。各フレームには次のものがあります。
タイムスタンプ tx ty tz qx qy qz qw
tx ty tzは、モーション キャプチャ システムによって定義されたワールド原点に対するカラー カメラの光学中心の位置を示します。
qx qy qz qwは、モーション キャプチャ システムによって定義されたワールド原点に対する単位四元数の形式で、カラー カメラの光学中心の方向を示します。
それを 4x4 の同次変換行列に変換する必要があります。これを解決するためのヒントはありますか? 例を次のように言いましょう。
1421307756.191874 0.004530 0.050319 0.003332 0.003734 0.023578 -0.054199 0.998245
それで、
タイムスタンプ: 1421307756.191874; tx : 0.004530
タイ: 0.050319 ; ツ:0.003332
qx : 0.003734; 数量: 0.023578
qz : -0.054199 ; qw : 0.998245
fx = 525.0 ; fy = 525.0; // デフォルトの焦点距離
cx = 319.5; cy = 239.5; // デフォルトの光心
親切な支援をいただければ幸いです。
ありがとう。
c++ - OS X で lsd_slam をコンパイルすると、リンク エラー ld: library not found for -lGL がスローされる
OSX 10.9.5 で lsd_slam をコンパイルしようとしていますが、次のようなビルド エラーが発生します。
this SO answerから私が理解していることから、フラグを使用してコンパイルする必要があります-framework OpenGL
。-lGL の代わりにフレームワークを選択するため、必要な変更と Makefile はどれですか。
python - EKF-SLAM でのランドマーク共分散の計算に関する問題
私は最近、ロボットのオドメトリとレーザー距離計の入力を受け取る拡張カルマン フィルターを Python で実装しました。ただし、期待どおりに機能していないため、各ステップで共分散行列をログに記録して、障害を見つけようとしました。
問題は、2 番目のランドマークの追加中にあると思います。
以下は、P 共分散行列を 0 ランドマークから 2 ランドマークに成長させる各ステップを示しています。この場合、ロボットは最初に 53mm 前進します。
状態ベクトル、ランドマークを追加する前後: 970mm の範囲、23 度。
P、ランドマークの共分散を追加する前後 (RR は cov が正しいように見えますか? 与えられた状態 ^):
P、Robot-Landmark および Landmark-Robot 相互分散の追加を投稿します。
状態ベクトル、2 番目のランドマークを追加するポスト: 813 mm の範囲、53 度。
P、新しいランドマーク共分散と RL、LR 交差共分散を追加した後:
P、ランドマークとランドマークのクロス分散を追加した後、ここで奇妙なことが起こります。
参考までに、これは私が上記を計算する方法です:
jacobianJXR の状態:
最終セクションの極端な値の原因は何ですか?また、前のステップは正常に見えますか? 前もって感謝します。
ubuntu - ROS で lsd_slam を使用するには?
ubuntu12.04を使用しています。wiki ページから ROS をインストールします。次に、lsd_slam コード形式をここにインストールします。lsd_slam
フォルダの下に名前が付けられた readme があります。これらのフォルダのビューは次のとおりです。
readme ファイルには、
クイックスタート / 最小限のセットアップ まず、Ubuntu / ROS のバージョンに応じて、LSD-SLAM 2.1 または 2.2 をインストールします。今のところ openFabMap は必要ありません。
[Room Example Sequence]( http://vmcremers8.informatik.tu-muenchen.de/lsd/LSD_room.bag.zip) をダウンロードして展開 します。
lsd_slam ビューアーを起動します。
rosrun lsd_slam_viewer ビューア
lsd_slam メイン ros ノードを起動します。
カメラ情報:=/カメラ情報
シーケンスを再生します。
色分けされた深さで現在のキーフレームを示す 1 つのウィンドウ (live_slam から) と、3D マップを示す 1 つのウィンドウ (ビューアから) が表示されます。なんらかの理由で初期化が失敗した場合 (つまり、深度マップが 5 秒後にまだ正しくないように見える場合)、深度マップにフォーカスし、'r' を押して再初期化します。
まず、走りroscore
ます。それで、
最初のコマンドでビューア ウィンドウを開きます。
最後のコマンドの結果は次のとおりです。
端末はこのステップを待ちます。それが本当かどうかはわかりません/image:=/image_raw
。image_raw ファイルまたはフォルダーがありません。この使い方は本当ですか?はいの場合、ビューアーに変化が見られないのはなぜですか?
opencv - 非定常背景をリアルタイムで減算する方法
私は、いくつかの opencv アルゴリズム (たとえば、hereおよびhere ) があり、静止したバックグラウンド減算の有効性を処理することを知っています。しかし、静止していない背景でこれを行う必要があります。したがって、手持ちカメラを使用します。誰かがいくつかのヒントを与えることができれば幸いです。