問題タブ [object-recognition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
algorithm - おもちゃの車の距離計センサーから部屋の輪郭をプロットする方法は?
私はarduinoと4つの超音波距離計センサーを前後と両側に備えたおもちゃの車を持っています。センサーがカバーする範囲内に壁が存在する場合、壁までの距離を教えてくれます。センサーはこのデータを簡単に教えてくれます車は部屋の中を動き回り、輪郭をプロットする必要があります。部屋には列があり、不規則である可能性があります。このプロットに含まれるアルゴリズムはわかりません。洞察をいただければ幸いです。
kinect - 付箋の認識に HAAR トレーニングを使用する
Microsoft Kinect ビデオ ストリームを介して、さまざまな色の付箋を検出できるようにする必要があります。エッジ検出に Emgucv を使用してみましたが、十分に堅牢ではない可能性のあるさまざまな色を考慮して、頂点/エッジと色のセグメンテーション/検出を特定していないようです。
HAAR 分類を使用しようとしています。使用するポジティブ/ネガティブ画像の最適な種類を誰でも提案できますか? たとえば、ポジ画像の場合、さまざまな照明条件と向きでさまざまな色のポストイット ノートの写真を撮る必要がありますか? 非常に単純な形状 (正方形) であることがわかりますが、HAAR 分類を使用して物事を複雑にしすぎていますか?
android - Android で最速の移動物体の認識と追跡
高速で移動するオブジェクトを認識して追跡する必要がある拡張現実ゲームに取り組んでいます。次の画像処理ライブラリを試しましたが、
1.opencv
2.BoofCv
3.FastCv
オブジェクトを追跡するために TLD アルゴリズムを試してみました。追跡は成功しましたが、パフォーマンスを改善する必要がありました。オブジェクトがより速く動いている場合、アルゴリズムの処理時間がかかるため、結果に時間がかかります。また、boofcv を使用して循環型の平均シフトのようなアルゴリズムも試しました。
これらのデモを確認してください:
これら 2 つのデモのオブジェクト トラッキングは良好に見えますが、計算には時間がかかります。
これをより速く行うために、次のシナリオを使用できますか?
追跡対象の r,g,b 行列を抽出する
カメラ フレームを取り、それを ar,g,b マトリックスに変換し、カメラ フレーム内で追跡オブジェクト マトリックスを検索します。
これを行うためのより良い方法はありますか??
ios - iOS OpenCVを使って建物を認識する
OpenCV フレームワークを使用して建物を認識できるかどうか疑問に思っています。たとえば、建物の画像を保存した場合、OpenCV を使用して iPhone カメラを通してこの建物を検出することはできますか?
ありがとう!
java - Java を使用した CIFAR10 データの読み取り
CIFAR10データセットを使用した機械学習プロジェクトに取り組んでおり、Java を使用してデータを処理する最速の方法を探しています。60,000 枚の 32x32 カラー画像で構成されています。画像はpng形式です。
各画像から特徴を抽出するために、画像を生のピクセル (32x32x3) として保存したいと考えています。
助言がありますか?
opencv - ワールド座標でopenCVを使用してオブジェクトの位置を決定する方法
大学のロボットクラスのタスクを実装しようとしています。プロジェクトの主なタスクは、KUKA-youbot ロボットでカップをつかむことです。
私が見つけた主な問題は、プロジェクトのビジョン コンピューティングの部分に関するものです。より正確には、私は Kinect (ロボット アームに取り付けられます) を使用しており、最初はこの手順を使用してカップを見つけることを考えていました。
- 開始する前にカップの写真を撮る (非常に近い)
- openCV を使用して、ロボット アームに取り付けられた kinect からリアルタイムで画像のキーポイントとリアルタイム画像のキーポイントを計算します。
- この時点で、2 つの画像間のキーポイントを OpenCV でマッピングできます。
- 同じ瞬間に kinect から取得した 3D ポイント クラウド イメージを使用して、イメージの 2D ポイントをリアルタイムでマッピングします。3D 画像の重心を計算すると、カップの位置がわかります。
問題は、リアルタイム画像が (1 メートルのように) 近くにある場合、キーポイントの抽出とそれらの他のマッピングが適切に機能することです。それ以外の場合、特にシーンに他のオブジェクトがある場合、openCV アルゴリズムは他の重要な機能を検出し、マッピングが機能しません。
私はこれを使用しています: http://docs.opencv.org/doc/tutorials/features2d/feature_homography/feature_homography.html
最初の 2 つの写真でわかるように、ロボットはカップの近くにあり、すべてうまく いき ました。 http://postimg.org/image/9lhhzxk4z/
私のプロジェクトにより機能的な他の方法があるかどうかを知りたいです。私の最初のアイデアのような機能ベースではなく、モデルベースの何かかもしれません。
ありがとうルカ
object-recognition - Hadoop は SIFT の実行時間を短縮できますか?
Hadoop を使用して複数のイメージで SIFT を実行できますか?
SIFT は、各画像でキーポイントとその記述子を抽出するのに約 1 秒かかります。各実行が他の実行とは独立しており、1 回の実行の実行時間を短縮できないことを考えると、とにかく実行時間を短縮できますか?
マルチスレッド化により、使用しているコア プロセッサの数だけ実行時間が短縮されます。各プロセッサで各イメージを実行できます。
複数のイメージで実行を並列化するために、とにかく hadoop を使用できますか? はいの場合、3 つのクラスターがあると仮定して、どのような要因で実行時間を短縮できますか?
c++ - OpenCV: HSV inRange は、押しつぶされて繰り返されたバイナリ イメージを返します
色認識のために変換している画像に少し問題があります。
関数は次のようになります。
}
出力は次のようになります。
左がインプット。右側は同じ画像で、HSV に変換され、指定されたしきい値間でフィルター処理されて黄色のボールが検出され、小さな輪郭を削除するために浸食および膨張され、元の画像の半分のサイズで表示されます。代わりに、期待される画像を取得し、それらの 3 つを同じスペースに押しつぶします。
なぜこれが起こるのかについての推測はありますか?
更新 1:
OK、右側のサイズの画像で findContours を実行しても適切な出力が得られるようです。つまり、3回コピーされた歪んだ右側の画像の輪郭を左側の右側の位置に貼り付けることができます。 -側の入力画像、私は歪んだ画像を取得し、表示目的でトリミングすることにしました。これは、画像内の特定の HSV 範囲の輪郭を見つけるためにのみ使用されます。その目的に役立つなら、私は満足しています。