12

ほぼ重複するビデオ検出の問題を解決できるオープンソースプロジェクトを探しています。私が今見つけた最高のものはSOTUですが、そのソースは閉じられています。では、オープンソースソリューションはありますか?

また、この問題の理論的な部分に関するいくつかのリンクに非常に感謝します。

4

2 に答える 2

18

複製に近いプロジェクトの 1 つを次に 示します。コロンビア大学のDVMM Lab による INDetector (ソースは入手可能ですが、厳密にはオープン ソースではないと思います)。それをビデオに適用することに関する情報もあります(主にキーフレーム)。

画像用のオープンソースの「知覚ハッシュ」ライブラリであるpHashもあります。

RapidMiner 用のオープンソースのイメージ マイニング プラグインであるIMMIもあります。

これらのいずれも、すべてのフレームまたは選択したフレーム (キーフレームなど) をアルゴリズムへの入力として処理し、2 つの異なるクリップからのフレームのペアの類似性について結果を集計することにより、画像だけでなくビデオにも適用できます。

また、UQLIPS の作成者 (以下に引用する Shen など) と連絡を取ることもできます。

また、TRECVID へのエントリのリストを調べてください。いくつかの年には、タスクの 1 つとしてほぼ重複した検出がありました。これらのグループのいくつかと連絡を取り、ソフトウェアを入手できる可能性があります。

これを自分で追求したい場合は、公開されているアルゴリズムのプロトタイプを実装するのはかなり簡単です。(a) 関心のあるデータに対していくつかの単純なアルゴリズムを試し、(b) 単純なアルゴリズムの単純な組み合わせがしばしば根本的に優れているという観察に基づいて、それらの出力を組み合わせるために何らかの投票/ポーリング プロセスを使用することをお勧めします。この種の問題における単一の洗練されたアルゴリズム。

また、 Earth Movers Distance (カラー ヒストグラム、グラデーションなど) を調べて、単純な特徴抽出 (すべてのフレームまたは選択したフレームのみ) を調べます。これは、python/numpy/scipy/pyopencv の数行のコードで簡単に実行できます。

次の 3 つは、この分野でおそらく最も引用されている論文で、すべて異なる研究グループによるものです。

  1. Yang、J.、YG Jiang、AG Hauptmann、およびCW Ngo。「シーン分類におけるバッグ オブ ビジュアル ワード表現の評価」。マルチメディア情報検索に関するワークショップに関する国際ワークショップの議事録、197–206、2007

  2. Shen、HT、X. Zhou、Z. Huang、J. Shao、X. Zhou。「UQLIPS: リアルタイムのほぼ重複したビデオ クリップ検出システム。」非常に大規模なデータベースに関する第 33 回国際会議の議事録、1374–1377、2007 年。

  3. Wu、X.、AG Hauptmann、および CW Ngo。「Web ビデオ検索からのほぼ重複の実質的な排除」。マルチメディアに関する第 15 回国際会議の議事録、218–227、2007 年。

YangらがSOTUで使っている方法と同じです。

于 2012-12-28T11:22:09.713 に答える
4

ライブラリAForge.NETが役立つと思います。それらには、環境の「理論的」背景に対する本質的に「比較」であるモーション検出を実行できるようにするコンポーネントがあります。

AForge.NETの基本的な作業の一部を使用して、重複ビデオ検出に向けた調査を加速できると確信しています。

お役に立てれば、

幸運を

于 2012-12-20T15:30:24.460 に答える