問題タブ [sensor-fusion]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
95 参照

gps - センサーフュージョンの場合、どのフィルターを使用しますか?

GPS と加速度計のデータを融合して、運動方程式を使用して位置と速度を推定しようとしています。

x = x' + vdt + 0.5dt^2.

これまでのところ、私が読んだことから、カルマンフィルターが人気のあるオプションのようです - ( 1 , 2 , 3 )。

ただし、システムが線形の場合はカルマン フィルターが使用されているようです。

運動方程式は非線形ではありませんか?

dt^2?

彼らは EKF/UKF を使用すべきではありませんか? そうでない場合は、その理由を説明していただけますか? よくわかりません。ありがとう!

0 投票する
1 に答える
405 参照

filter - カルマン フィルターで非同期データを処理する方法

3D 位置データを融合するカルマン フィルターを実装しています (2 つの異なるコンピューター ビジョン アルゴリズムから提供されます)。問題を 9 次元の状態ベクトル (位置、速度、加速度) でモデル化しています。ただし、各センサーからのデータは同時に来るわけではありません。前のデータの受信と現在のデータ ポイントの間の時間ステップを考慮して速度を計算するため、2 つの連続するデータ ポイントはまったく異なる場合がありますが、非常に小さな時間ステップだけで区切られているため、位置が変化したように見えます。急速。

この問題にアプローチする最善の方法について誰かが洞察や方向性を持っているかどうか疑問に思っています-カルマンフィルター自体はこの動作に寛容ですか? または、時間枠内に受信したすべてのデータをビンに配置し、データのバッチに対して更新/予測サイクルをあまり頻繁に実行する必要はありませんか? オブジェクト トラッキングでカルマン フィルターを利用するために私が見たリソースでは、1 つのカメラ (つまり、同期データ) しか使用されていないため、ユース ケースに関連する情報を見つけるのに苦労しています。

どんな助けでも大歓迎です!ありがとうございました!

0 投票する
1 に答える
332 参照

3d - キャリブレーション セットが 1 つしかない独自のカメラ-LiDAR セットアップで KITTI 3D オブジェクト検出メソッドを使用する方法は?

自律型地上車両のリアルタイム 3D オブジェクト検出に取り組んでいます。私が使用するセンサーは、単眼カメラと VLP16 LiDAR です。外部カメラ-LiDAR キャリブレーションとセンサー フュージョンには、Autoware カメラ-LiDAR キャリブレーション ツールを使用しました。ここで、KITTI 3D オブジェクト検出メソッドを使用して、画像の 3D バウンディング ボックスを取得したいと考えています。ただし、KITTI データセット内の各画像とそれに対応する velodyne ポイント クラウドには、独自のキャリブレーション ファイルがあります。オートウェアでは、セットアップ全体に対して 1 つの外部キャリブレーション ファイルしか取得できません。また、Autoware のキャリブレーション パラメータは、KITTI データセットのキャリブレーション パラメータとは異なります。自動ウェアのキャリブレーション パラメータを KITTI データセットのパラメータに変換するのを手伝ってくれる人はいますか? または、私の目標を達成するための他の方法はありますか?

カメラ-LiDAR セットアップ用の Autoware キャリブレーション ファイル:

画像のペアとそれに対応する velodyne ポイント クラウドの KITTI キャリブレーション ファイル: