0

3D 位置データを融合するカルマン フィルターを実装しています (2 つの異なるコンピューター ビジョン アルゴリズムから提供されます)。問題を 9 次元の状態ベクトル (位置、速度、加速度) でモデル化しています。ただし、各センサーからのデータは同時に来るわけではありません。前のデータの受信と現在のデータ ポイントの間の時間ステップを考慮して速度を計算するため、2 つの連続するデータ ポイントはまったく異なる場合がありますが、非常に小さな時間ステップだけで区切られているため、位置が変化したように見えます。急速。

この問題にアプローチする最善の方法について誰かが洞察や方向性を持っているかどうか疑問に思っています-カルマンフィルター自体はこの動作に寛容ですか? または、時間枠内に受信したすべてのデータをビンに配置し、データのバッチに対して更新/予測サイクルをあまり頻繁に実行する必要はありませんか? オブジェクト トラッキングでカルマン フィルターを利用するために私が見たリソースでは、1 つのカメラ (つまり、同期データ) しか使用されていないため、ユース ケースに関連する情報を見つけるのに苦労しています。

どんな助けでも大歓迎です!ありがとうございました!

4

1 に答える 1