問題タブ [object-detection]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
1407 参照

android - 他の多くのデータを含む画像からAndroidのQRタグを抽出する方法は?

データ量の多い画像からQRタグを抽出したい。OpenCVのオブジェクト検出のようなもの。画像に QR タグが含まれていることを検出したら、画像を抽出し、拡大して保存する必要があります。デコーダーがそれをデコードするため。出来ますか?

0 投票する
2 に答える
2346 参照

image-processing - HOG記述子を訓練する方法は?ロゴ識別/ロゴ認識..

オブジェクトの HOG 記述子をトレーニングできるツール/ソフトウェアを探しています。または、これを行うための簡単なチュートリアルがある場合は、そのリンクを提供してください。または、豚記述子を訓練する方法を提案してください。基本的に私の目的は、テレビの画像からチャンネルのロゴを検出することです。番組の画像(テレビに出ている)はカメラから取得されます。.. この画像は、画像が撮影されたチャンネルを識別するためのプログラムへの入力です。サーフ/シフト ベースの機能を試してみましたが、これらは 3000 枚の画像 (チャンネルあたり 10 枚の画像) とのパターン マッチングに非常に時間がかかります。プログラムのほぼリアルタイム (< 2 秒) のパフォーマンスが必要です。

0 投票する
3 に答える
1143 参照

matlab - HOG 記述子のトレーニングにはどのくらいの時間がかかりますか?

画像からロゴを識別するプロジェクトがあります。最初は Haar 分類器を使用していましたが、Haar 分類器のトレーニングには多くの時間がかかります (Core i5 マシンでは、ロゴごとに 4 日かかります)。300 以上のロゴをトレーニングするには、かなりの時間がかかります (高性能コンピューターはありません)。そのため、トレーニングにかかる​​時間が大幅に短縮されることを期待して、HOG ベースのオブジェクト検出器に移行することにしました。

HOG記述子のトレーニングにかかる​​時間は誰にも分かりますか? ロゴごとに約 100 のポジティブおよび 100 のネガティブ 600x800 ピクセル イメージでトレーニングします (Core i5 プロセッサを搭載したマシン上)。

0 投票する
1 に答える
11289 参照

opencv - SURFを使用して検出されたオブジェクトの周りに長方形を描く

サーフディテクターを含む次のコードからオブジェクトを検出しようとしています。一致を描画したくありません。検出されたオブジェクトの周りに長方形を描画したいのですが、どういうわけか正しいホモグラフィを取得できません。誰か指摘してください私は間違っています。

0 投票する
1 に答える
24385 参照

opencv - シンプルな OpenCV プロジェクト - テニス ボールの検出と追跡

私は、OpenCV を使用して Web カメラ上のオブジェクト (テニス ボール) を検出する必要があるプロジェクトを持っています。ボーナス クレジットとして、テーブルの上を転がしたときにそれを追跡します。

私は OpenCV 2.4、C++ を使用しており、多くの情報が古い OpenCV バージョンにあるため、これに関する情報を見つけることができませんでした。私はそれを行うためのさまざまな方法について多くのことを読んできましたが、それを自分のコードに実装する方法がわかりません。

特に検出/追跡機能を私のコードに統合する方法について、何か助けていただければ幸いです

これまでのコードは次のとおりです。フィルターを適用した後、画像検出/追跡コードを実行する必要があると思います。

0 投票する
1 に答える
18009 参照

image-processing - OpenCV(テンプレートマッチング)を使用してマーカーを検出して照合する方法

特定の領域にマーカーを保持している画像を使用しています。opencvでcvMatchTemplateとして定義されているメソッドであるテンプレートマッチングを使用してそれを実行しようとしました。

私はそれらを検出するためにウェブカメラを使用していますが、テンプレートと同じマーカーを提供したため、現在プログラムはマーカーを検出しています。

しかし、それが最良の一致であるか、わずかに一致するかを確認する方法が見つかりません。cvMatchTemplateでは、最適な一致を検出するだけでなく、わずかに一致する領域も検出し続けるためです。

誰かがこれを行う方法を教えてもらえますか?または、他に問題が発生した場合は、お知らせください。

これが私の画像カードへのリンクです http://imageshack.us/photo/my-images/266/piggycard.jpg/ (私はそれがマッシュされているかどうかを検出してチェックしたいです)

これがコードです

// template_mching_test_2.cpp:コンソールアプリケーションのエントリポイントを定義します。//

テンプレートとして、元の画像から切り取ったものと同じマーカーを提供しました。minMaxLocから、最大値を取得して最適な一致を確認しました。しかし、画像マーカーが位置にあるとき、および画像マーカーがフレーム内になく、以前にマーカーと一致した場所でわずかに一致しているとき、それは私に同じ値を与え続けます.minMaxlocは私たちに座標(位置)を与えますかマーカーまたは一致するパーセンテージ。または、これを行う他の方法はありますか。ご検討をお願いいたします。

0 投票する
1 に答える
1999 参照

c++ - OpenCV Haar 分類子のしきい値

次のような oepncv XML haar 分類子を理解しようとしています。

元の論文で述べたように、しきい値は特徴 (積分画像) の合計と比較する必要があります。ただし、画像のピクセル値は 0 ~ 255 (グレー スケール画像) である必要があります。機能の合計がなぜそれほど小さいのでしょうか (たとえば、この機能では、しきい値は 0.004014 です...)? それを理解するための指示を教えてもらえますか?

ご協力ありがとうございました!

0 投票する
2 に答える
3067 参照

opencv - C++でOpenCVを使用したオブジェクト検出

私は現在、構築中のUAVのビジョンシステムに取り組んでいます。このシステムの目標は、地面の2Dフライオーバービューとなるビデオストリームで、かなり明確に定義されたターゲットオブジェクト(以下を参照)を見つけることです。これまでのところ、検出を行うために、Haarのような機能ベースのカスケードであるラビオラジョーンズをトレーニングして使用してみました。さまざまな角度(遠近法のシフト)と範囲(フレーム内のサイズ)でのターゲットの5000以上の画像を使用してトレーニングしていますが、「背景」画像は1900枚のみです。いくつかの誤検知と少数の誤検知のバランスをとるカスケードに適切な数のステージを見つけることができないため、これではまったく良い結果が得られません。

この分野の経験がある人から、次のことを行うべきかどうかについてアドバイスを求めています。1)カスケードを捨てて、輪郭と色で定義されたオブジェクトにより適したものを選びます(VJカスケードを読んだことがあります)いいえ)。2)ポジティブ、バックグラウンドフレームを追加する、それらをより適切に整理/撮影するなどして、カスケードのトレーニングセットを改善します。3)現在理解できない他のアプローチ。

ターゲットの説明:

  • 主な形状:三角形、正方形、円、楕円など。
  • はっきりとした、単色の、プライマリ(またはそれに近い)色。
  • 2〜8フィートの最小寸法(数百フィートのAGLから簡単に確認できる大きさ)
  • オブジェクトの中央にある大きな単一の英数字で、独自の明確な単色、原色、またはほぼ原色があります。

私の目標は、VJカスケードなどの非常に高速なものを使用して、可能なオブジェクトとそれに関連する境界ボックスを見つけ、それらをより細かい処理ルーチンに渡して、プロパティ(オブジェクトの色とAN、ANの値、実際の形状、およびGPS位置)。この目標を達成するために私にアドバイスをいただければ幸いです。私が現在持っているソースコードは、ここに投稿するには少し長いですが、参照用に見たい場合は無料で入手できます。前もって感謝します!

-JB

0 投票する
2 に答える
529 参照

android - 既知の設定でオブジェクトを認識するのに適した画像処理ライブラリ/AR 技術はありますか?

シーン内のオブジェクトを検出する必要があります (iPhone および Android)。環境は、問題をより簡単かつ正確にする方法で制約されます。

  1. 環境は小さく、既知です...ユーザーは、アルゴリズムを「トレーニング」または制限するために事前に写真を撮ることができる単一の部屋または小さな屋外エリアを探索しています
  2. 多くの場合、スペース内のユーザーの場所は制限されています...スペースが大きい場合でも、ユーザーはスペース内の特定のパスに限定される可能性があります
  3. 検出されるオブジェクトは比較的静的です...それらは環境の一部であり、移動しません

しかし、問題を難しくしています:

  1. オブジェクトにマーカーを配置して環境を変更することはできないため、オブジェクト自体を認識する必要があります
  2. オブジェクトは見た目がよく似ているため、個々のアイテムだけでなく、周囲のシーンを入力として使用する必要がある場合があります

たとえば、道に沿って歴史的な墓地を歩くことを想像してみてください (芝生の上を歩くことは許可されていません)。ユーザーが携帯電話を墓石に向けたときに、墓石を特定し、墓石に対するユーザーの位置を推定できるようにしたいと考えています (パス上のユーザーの位置を推定できるようにするため)。あなたが墓石だけを見ているなら、多くの墓石はかなり似ています。事前にその道を歩いて、さまざまな角度からオブジェクトの複数の写真を撮ることができます.

このタイプのオブジェクト検出の問題に適したアルゴリズムまたはライブラリはありますか?

0 投票する
2 に答える
5163 参照

ios - OpenCV による既知のオブジェクト検出パフォーマンスの向上

私は、モバイル コンテキストで「リアルタイム」にシーン内の既知の画像を検出するプロジェクトに取り組んでいます (つまり、スマートフォンのカメラを使用してフレームをキャプチャし、フレームのサイズを 150x225 に変更しています)。絵自体はかなり複雑になる可能性があります。現在、各フレームを平均 1.2 秒で処理しています (OpenCV を使用)。この処理時間と全体的な精度を改善する方法を探しています。私の現在の実装は次のように機能します:

  1. フレームをキャプチャする
  2. グレースケールに変換する
  3. キーポイントを検出し、ORB を使用して記述子を抽出する
  4. 記述子 (2NN) (オブジェクト -> シーン) を一致させ、比率テストでフィルター処理します
  5. 記述子 (2NN) (シーン -> オブジェクト) を一致させ、比率テストでフィルター処理します
  6. 4. と 5. による非対称マッチングの削除。
  7. 一致する信頼度を計算します (キーポイントの合計に対する一致したキーポイントの割合)

私のアプローチは正しいものではないかもしれませんが、改善の余地はたくさんありますが、結果は問題ありません。SURF 抽出が遅すぎて、ホモグラフィを使用できなかったことに既に気付きました (ORB に関連している可能性があります)。すべての提案を歓迎します!