Visual Studio2008でOpenCV2.3.1を使用して、2台以上(現在は3台または4台)のカメラからの画像をリアルタイムでつなぎ合わせることを考えています。
しかし、私はそれがどのように行われるのか興味があります。
最近、私は特徴ベースの画像スティッチング方法のいくつかの技術を研究しました。
それらのほとんどは、少なくとも次の手順を必要とします。
1.特徴検出2.特徴マッチング3.ホモグラフィの発見4.ターゲット画像から参照画像への変換...など
今、私が読んだテクニックのほとんどは「1回」の画像のみを扱いますが、いくつかのカメラからキャプチャされた一連の画像を扱いたいので、「リアルタイム」にしたいです。
これまでのところ、それはまだ混乱しているように聞こえるかもしれません。私は詳細を説明しています:
3台のカメラを異なる角度と位置に配置しますが、リアルタイムのビデオスティッチングを構築するには、それぞれのカメラが隣接するカメラとオーバーラップする領域を持っている必要があります。
私がやりたいのは、ASIFTが使用されている次のリンクのコンテンツと同様です。
http://www.youtube.com/watch?v=a5OK6bwke3I
そのビデオの所有者に相談しようとしましたが、彼からの返信はありませんでした:(。
画像ステッチ方法を使用してビデオステッチを処理できますか?ビデオ自体は一連の画像で構成されているので、これは可能かと思います。ただし、特徴点の検出は、使用する特徴検出器(SURF、SIFT、ASIFTなど)に関係なく、非常に時間がかかるようです。これは、リアルタイムのビデオスティッチングを行う可能性を疑わせます。