1

KLTを使用して一連の画像からオプテ​​ィカルフローを抽出しました。カメラは移動中の車両に搭載されており、交通シーンをキャプチャしています。これで、不一致点のないマッチング結果が得られました。

OpenCV 関数 (C++) を使用して、機能と追跡を抽出するだけです。私はプログラミングに問題はありません。

cvGoodFeaturesToTrack()、cvFindCornerSubPix()、cvCalcOpticalFlowPyrLK()

私が持っている一致したポイントが動くオブジェクトの一部であるかどうかを区別するために、どのトピック/論文を調べる必要があるかを誰か提案できますか? カメラの動きを回復したくありません。ポイントが移動オブジェクトからのものであるかどうかを確認するためだけに。

距離計やその他のセンサーのような外部リソースはありませんが、車の速度 (カメラを搭載) と、車が道路上または下に傾いた場合にカメラが車両に固定されている角度を知っています。(ヨーレートはわかりませんが)

オプティカル フローの方向と距離を確認するだけでは不十分です。たとえば、反対側のサイトを移動する車両のオプティカル フローは、多くの場合、静止したフィーチャ、またはカメラと同じ速度で移動する車両に似ています。

これに対処するには、どのトピックを勉強する必要がありますか? FOE またはカルマン フィルターのいずれかを選択する必要がある場合は? RANSAC が助けになるのだろうか。(私はいくつかの学術論文を読みましたが、運が悪かったようです。カルマンフィルターをざっと調べましたが、これがどのように役立つかわかりませんでした。また、FOE に関するリソースは、特にテキストブックで非常に限られていることがわかりました)

すべての回答に感謝します。どうもありがとうございました(心から)

4

1 に答える 1

0

これが私自身の質問に答えるのに不適切であると考えられるかどうかはわかりません。しかし、誰もこの質問に答えていないので、私はいくつかの研究を行っていますが、成功例ではありません. 同じように悩んでいる方の参考になるかもしれません。

都市の交通シーンを捉えた一連の画像があります。画像は、移動中の車にスマートフォンを使用して 0.5 秒ごとにキャプチャされます。

テスト目的で、シーケンス全体ではなく、テスト用の画像のペアのみを使用します。KLT を使用して多数の一致点を取得し、2 段階の外れ値除去を実行しました。一致した結果は良好、一致しない、または不一致の数が非常に少ないです。

移動するオブジェクトのポイントを拒否するために、以下の論文に示されている作業に従いました。

Jung, B. and Sukhatme, GS, 2004. 「屋外環境で移動ロボットの単一カメラを使用して移動物体を検出する」(ジャーナルで発表された改訂版は、「移動ロボットからのリアルタイム モーション トラッキング」と題されています。 ")

要約すると、彼らの作業の一部として、画像のペア間の変換モデルを計算することにより、外れ値 (動くオブジェクト) を拒否しています。この作業では、バイリニア モデルが使用されました。手順は、変換モデル パラメーター T を計算し、一致した if |x2 - T(x1)| を拒否することです。< しきい値。ここで、x2 と x1 は、時刻 t2 と t1 における画像上の対応点のペアを意味します。

T をアフィン モデル、バイリニア モデル、疑似遠近法モデルとして試しました。私の実験結果は、移動オブジェクトの数が少なくない場合、一致したポイントに依存しているため、この手順は常に失敗することを示しています。私の場合、画像は動く物体がたくさんある都市の交通シーンでキャプチャされます。したがって、この手法で外れ値を破棄することはできません。したがって、RANSAC も役に立たないと思います。そのため、多くの論文が少数の移動物体を想定しています。これらの 3 つのモデルの中で、アフィン ショーが最も悪い結果を示していることがわかりましたが、他の 2 つのモデルの中でどちらが優れているかはわかりません。

これが役立つことを願っています。

于 2012-11-09T14:40:33.927 に答える