問題タブ [sensor-fusion]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
filter - カルマン フィルターで非同期データを処理する方法
3D 位置データを融合するカルマン フィルターを実装しています (2 つの異なるコンピューター ビジョン アルゴリズムから提供されます)。問題を 9 次元の状態ベクトル (位置、速度、加速度) でモデル化しています。ただし、各センサーからのデータは同時に来るわけではありません。前のデータの受信と現在のデータ ポイントの間の時間ステップを考慮して速度を計算するため、2 つの連続するデータ ポイントはまったく異なる場合がありますが、非常に小さな時間ステップだけで区切られているため、位置が変化したように見えます。急速。
この問題にアプローチする最善の方法について誰かが洞察や方向性を持っているかどうか疑問に思っています-カルマンフィルター自体はこの動作に寛容ですか? または、時間枠内に受信したすべてのデータをビンに配置し、データのバッチに対して更新/予測サイクルをあまり頻繁に実行する必要はありませんか? オブジェクト トラッキングでカルマン フィルターを利用するために私が見たリソースでは、1 つのカメラ (つまり、同期データ) しか使用されていないため、ユース ケースに関連する情報を見つけるのに苦労しています。
どんな助けでも大歓迎です!ありがとうございました!
3d - キャリブレーション セットが 1 つしかない独自のカメラ-LiDAR セットアップで KITTI 3D オブジェクト検出メソッドを使用する方法は?
自律型地上車両のリアルタイム 3D オブジェクト検出に取り組んでいます。私が使用するセンサーは、単眼カメラと VLP16 LiDAR です。外部カメラ-LiDAR キャリブレーションとセンサー フュージョンには、Autoware カメラ-LiDAR キャリブレーション ツールを使用しました。ここで、KITTI 3D オブジェクト検出メソッドを使用して、画像の 3D バウンディング ボックスを取得したいと考えています。ただし、KITTI データセット内の各画像とそれに対応する velodyne ポイント クラウドには、独自のキャリブレーション ファイルがあります。オートウェアでは、セットアップ全体に対して 1 つの外部キャリブレーション ファイルしか取得できません。また、Autoware のキャリブレーション パラメータは、KITTI データセットのキャリブレーション パラメータとは異なります。自動ウェアのキャリブレーション パラメータを KITTI データセットのパラメータに変換するのを手伝ってくれる人はいますか? または、私の目標を達成するための他の方法はありますか?
カメラ-LiDAR セットアップ用の Autoware キャリブレーション ファイル:
画像のペアとそれに対応する velodyne ポイント クラウドの KITTI キャリブレーション ファイル: