12

Visual Studio2008でOpenCV2.3.1を使用して、2台以上(現在は3台または4台)のカメラからの画像をリアルタイムでつなぎ合わせることを考えています。

しかし、私はそれがどのように行われるのか興味があります。

最近、私は特徴ベースの画像スティッチング方法のいくつかの技術を研究しました。

それらのほとんどは、少なくとも次の手順を必要とします。

1.特徴検出2.特徴マッチング3.ホモグラフィの発見4.ターゲット画像から参照画像への変換...など

今、私が読​​んだテクニックのほとんどは「1回」の画像のみを扱いますが、いくつかのカメラからキャプチャされた一連の画像を扱いたいので、「リアルタイム」にしたいです。

これまでのところ、それはまだ混乱しているように聞こえるかもしれません。私は詳細を説明しています:

3台のカメラを異なる角度と位置に配置しますが、リアルタイムのビデオスティッチングを構築するには、それぞれのカメラが隣接するカメラとオーバーラップする領域を持っている必要があります。

私がやりたいのは、ASIFTが使用されている次のリンクのコンテンツと同様です。

http://www.youtube.com/watch?v=a5OK6bwke3I

そのビデオの所有者に相談しようとしましたが、彼からの返信はありませんでした:(。

画像ステッチ方法を使用してビデオステッチを処理できますか?ビデオ自体は一連の画像で構成されているので、これは可能かと思います。ただし、特徴点の検出は、使用する特徴検出器(SURF、SIFT、ASIFTなど)に関係なく、非常に時間がかかるようです。これは、リアルタイムのビデオスティッチングを行う可能性を疑わせます。

4

2 に答える 2

12

私はリアルタイムのビデオスティッチングシステムに取り組んできましたが、それは難しい問題です。NDAのために使用した完全なソリューションを開示することはできませんが、このホワイトペーパーで説明したものと同様のソリューションを実装しました。最大の問題は、さまざまな深さのオブジェクトに対処することです(単純なホモグラフィでは不十分です)。奥行きの不一致を判断し、ビデオフレームを適切にワープして、共通の特徴を揃える必要があります。これは本質的にステレオビジョンの問題です。共通の特徴が同じスキャンラインに表示されるように、最初に画像を修正する必要があります。

于 2012-05-15T22:39:49.743 に答える
5

数年前からの私のプロジェクトにも興味があるかもしれません。これは、さまざまなステッチパラメータを試して、結果をリアルタイムで確認できるプログラムです。

プロジェクトページ-https://github.com/lukeyeager/StitcHD

デモビデオ-https://youtu.be/mMcrOpVx9aY?t= 3m38s

于 2015-09-25T21:00:14.140 に答える