問題タブ [flann]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
384 参照

java - OpenCV Java API のフラン インデックス

JavaでOpenCVを使用してFlannインデックスを作成するにはどうすればよいですか?

機能記述子の KNN 検索を実行しようとしています。Java API で同等のクラスが見つかりません。それとも、公式の Java バインディングは不完全ですか?

C++ クラスはここに文書化されています: http://docs.opencv.org/2.4/modules/flann/doc/flann_fast_approximate_nearest_neighbor_search.html#flann-index

0 投票する
1 に答える
195 参照

machine-learning - マルチラベル分類のための FLANN ライブラリの利用

マルチラベル分類に FLANN ライブラリを利用したい。FLANN ライブラリが最近傍の計算用であることは知っていますが、それを分類目的で使用する方法がわかりません。Scikit-Learn または他のライブラリにプラグインする方法はありますか。

0 投票する
0 に答える
457 参照

c++ - flann::Matrix に保存されている値にアクセスする方法

ポイントクラウドを使用してflannライブラリを使用しています。私は自分のポイントをflannで使用できるポイントに変換するこのアダプターメソッドを持っています

そして、このメソッドの出力は

flann::Matrix、Y、Z からの印刷が異なる理由がわかりません。flann::Matrix の格納手順に関するドキュメントを探していましたが、答えが見つかりません。私の配列型アクセスは正しいと思いますが、機能しません。

前もって感謝します。:D

0 投票する
1 に答える
829 参照

c# - 画像データベースで画像を検索するための Opencv Surf および FlannIndex

私はopencvが初めてで、EMGUをC#のラッパーとして使用しています。画像データベースからクエリ画像に最適な類似画像を取得しようとしています。

ここに示すように、作業を行うために例をフォローアップしました。

SURF 検出器を使用して画像の特徴を検出し、すべてのデータベース画像記述子を 1 つのスーパー記述子マトリックスに組み合わせて照合します。

次に、Flann インデックスを使用して、クエリ イメージの最近傍を見つけます。

問題は、距離行列「dists」に常に「0」の値が含まれていることです。

0 投票する
2 に答える
25945 参照

c++ - C++ - ORB を使用した OpenCV 機能の検出

検出に ORB を使用し、一致に FLANN を使用して、OpenCV で機能を抽出して一致させようとしていますが、非常に奇妙な結果が得られます。2 つの画像を読み込んでグレースケールに変換した後、コードは次のようになります。

そして、これは私が得ている奇妙な結果のスクリーンショットです: スクリーンショット

何が問題なのですか?

ありがとう!

0 投票する
0 に答える
706 参照

c# - FLANN SURFを特徴抽出に分割して類似性を見つける方法は?

クエリ画像とデータベースに保存されているコレクション画像との類似性を見つけるために、SURFアルゴリズムを訴えています。パフォーマンスを向上させるために、高速近似最近傍 (FLANN) を使用しました。ここで、この作業を 2 つのステップに分けたいと思います。

最初のステップ: データベース内のすべての画像の記述子を計算し、すべての記述子を結合して大きな行列を作成し、最後に FLANN を構築します。

2 番目のステップ: クエリ イメージの記述子を計算し、FLANN インデックスを使用して、クエリ記述子とすべてのコレクション記述子の間の一致を見つけます。

誰が私を助けることができます?

FLANN.cs

program.cs

0 投票する
0 に答える
576 参照

opencv - Qualcomm Snapdragon 800 および Adreno 330 を使用したハードウェアの最適化

ARM CPU (Snapdragon 800) を搭載した Ubuntu (Linaro) ボードで実行されるリアルタイム コンピュータ ビジョン プロジェクトを開発しています。

ソフトウェアの一部は、膨大な量の HD 画像で動作します。これは実行を遅くし、ボトルネックとして機能します。

これらの操作は次のとおりです。

  • 2D配列 (画像) 内のすべての局所的な最小値と最大値を検索します。現在、それは素朴で簡単な方法を使用して実装されています。
  • KD ツリーを構築し、K 最近傍探索を実行します。これは現在、OpenCV に含まれている FLANN ライブラリを使用して行われています。

利用可能な Adreno 330 GPU を利用して、これらの計算を高速化する方法を探しています。

私は OpenCL を見ていましたが、Adreno 330 では「組み込みプロファイル」としてのみサポートされていることがわかりました。

ARM プロセッサの NEON についても聞いたことがありますが、それがどのように役立つかはわかりません。

ヘルプ、ヒント、リンクをいただければ幸いです。

ありがとう、

アビ

0 投票する
1 に答える
1929 参照

c# - emguCV 3.1.0を使用して画像のコレクション内で一致する画像を見つける

画像のコレクションから画像を認識する (類似度パーセンテージ) プロジェクトに取り組んでいます。EmugCV 3.1.0 を使用しました。コードを以下に示します。プログラムは実行されますが、次の問題があります

  1. 一致が見つかった場合、最初の画像に常に表示されるパーセンテージ。添付ファイルを見つける

ここに画像の説明を入力

  1. 同じ画像を dbimage コレクションに 2 回配置し、この同じ画像をクエリ画像として配置すると、一致するすべてのパーセンテージはゼロになります。添付ファイルを見つける

    string[] dbImages = { imgPath + "1.jpg", imgPath + "2.jpg", imgPath + "3.jpg", imgPath + "4.jpg" }; string queryImage = imgPath + "4.jpg";

これらの画像では、画像「2」と「4」は同じです

ここに画像の説明を入力

コードを以下に示します

0 投票する
0 に答える
506 参照

c - 共有ライブラリの読み込み中にエラーが発生しました: libflann.so.1.8: 共有オブジェクト ファイルを開けません: そのようなファイルまたはディレクトリはありません

リモートサーバーでflannライブラリをコンパイルしてみました。root 権限を使用してコンパイルし、サーバー上の既存のアカウントから実行したいと考えています。次のエラーが表示されます。何が間違っているかを理解するのを手伝ってもらえますか。サーバーはcentosディストリビューションです。

0 投票する
0 に答える
456 参照

opencv - OpenCV : クラスターで FLANN を実行する

大量の画像セットの「matching_to_many_images.cpp」をスケーリングしようとしています。(20K 以上の画像) https://github.com/kipr/opencv/blob/master/samples/cpp/matching_to_many_images.cpp

FLANN ベースのマッチャーを使用して画像を照合します (SURF キーポイントと記述子エクストラクタを使用)。このペーパーで説明されている方法に従ってみます (セクション「コンピューティング クラスタでの検索」) http://www.cs.ubc.ca/research /flann/uploads/FLANN/flann_pami2014.pdf

合計 n 個の画像を持つトレーニング画像セット C があります。

C={B(1)...B(n)}。

セット C を N 個の「バケット」に分割します。各バケットには (n/N) 個の画像が含まれます。バケットごとに、「detectKeyPoints」、「computeDescriptors」、および「trainMatcher」を個別に実行します。これは、image-bucket.Total N 個の DescriptorMatchers ごとに個別の「DescriptorMatcher」があることを意味します。

次に、クエリ イメージに対して、「detectKeyPoints」、「computeDescriptors」を実行し、N 個の DescriptorMatchers のそれぞれに対して「照合」を実行します。

最後に、各 DescriptorMatcher から DMatch リストを受け取り、local-image-bucket-indices を global-image-index にマップし、イメージごとの一致する記述子の数を計算します。この数が大きいほど、クエリ イメージに最も近くなります。

これを N=1 で実行すると、正しい結果が得られました。しかし、N (>1) を増やすと、正しい一致結果が得られないことに気付きました。

私の質問は次のとおりです。

1) 論文に従って正しい手順を実行していますか? 論文に記載されているように、「削減」ステップがどのように行われるかを理解しようとしています。

2) DMatch オブジェクトから抽出できる要因は 2 つあります。「距離」と「画像ごとの合計一致数」。これら 2 つの要素を使用して、最も近い一致する画像を見つけるにはどうすればよいですか?