問題タブ [orb]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
opencv - 画像データのポインタを使ってMatにデータを渡す方法
私のコードでは、次のような画像のルートからデータを読み取りたくありません
代わりに、ポインターからデータを読み取りたい:
しかし、この方法で、次の ORB 関数で img_1 を使用すると、機能しないことがわかりました。
ポインターからマットにデータを渡すにはどうすればよいですか? imread() 関数とポインターからのデータの受け渡しに違いはありますか? または、cv::ORB 関数に特別な要求はありますか?
どうもありがとう!私はOpenCVに慣れていません.数週間使い始めたばかりです.この問題を解決する必要があり、コードの残りの部分はこの部分の結果に依存します.
opencv - 画像のサイズを縮小しても、Orb フィーチャのサイズが同じ回数縮小されないのはなぜですか?
みんな!ORB 特徴抽出を使用しているため、画像は 640*480 で、orb 記述子の Mat は 500 行 32 列です。opencv::resize() 関数を使用して画像サイズを 320*240 に縮小すると、画像 orb記述子は 250 行 32 列に縮小されます。ただし、答えは420(異なる画像は異なる場合があります。おそらく417、430)の行と32列です。その理由を誰か教えてもらえますか?
android - ORB を使用した Android でのオブジェクト検出
Android デバイスのカメラで特定のオブジェクトを検出しようとしています。HOG記述子を使用してOpenCVの人物検出サンプルを試しましたが、かなり遅いようです。次に、Haar Cascades を使用してみました。これにより、平均フレーム レートが 10 fps になり、精度も向上しました。
もう少し読んだ後、別の実行可能なオプションは ORB 機能検出器のようです。私が理解できるのは、現在のフレームと比較したい画像の特徴ベクトルを保存する必要があるということです。そう、
- これらのベクトルをAndroidデバイスに保存する最良の方法は何ですか
- まともな精度を得るために必要な画像のデータベースの大きさ (人の検出に使用するとします) & 大規模なデータベースと比較する場合のオーバーヘッドはどれくらいですか?
- また、オブジェクトの色の違いとカメラからの距離に関して、ORB にはどのような制限がありますか?
java - Java Corba さまざまなオーブ
現在、jaCORB にサーバー側とクライアント側がありますが、正常に動作しますが、クライアントとサーバーを異なるオーブで実行したいと考えています。正直なところ、私はコルバにまったく慣れていないので、インターネットを見てきましたが、これを理解するのに役立つものを見つけることができませんでした. メソッドを指定するidlファイルがあり、Jacorbを実装するサーバー側でそれらを実装します。
そして、次のように Orb を実装するクライアントからメソッドを呼び出します。
そして、別のオーブにサーバーを置きたい場合、どうすればよいですか? プロパティだけですか、それともクラスを完全に変更する必要がありますか? 私は今までに数時間を費やしましたが、まだ私の問題を理解しておらず、どのコードにも成功していません。回答ありがとうございます。
java - 私の場合、CORBA のクライアントに java.lang.Object 値を返すにはどうすればよいですか?
Corba アプリケーションを開発しています。私の IDL インターフェイスは次のようになります。
クライアントがトランザクション参照オブジェクトの addResource メソッドを呼び出すと、Proxy.newProxyInstance(....) の戻り値をクライアントに返すことができるようになります。
addResource 実装の例:
「o」をクライアントに返したいのですが、どうすればよいですか?
addResource() メソッドの戻り値の型は何ですか? org.omg.CORBA.Object ですか? または他のタイプ?
c++ - 一致が見つかったかどうかを評価する方法
わかりました。私が知りたいのは、一致が見つかったかどうかをどのように評価するかです。
2 つの記述子があるとします。それらは ORB アルゴリズムを使用して計算されました。次に、BFMatcher を次のように使用します。
一致ベクトルは何を教えてくれますか? いつ一致を見つけましたか?
c++ - OpenCV: Orb パラメータ
オーブ機能検出器のパラメーターについて疑問があります。キーポイント エクストラクタおよびディスクリプタとして使用しています。マッチャーとして、BFMatcher を使用します。
現時点では、次のように使用しています。
小さな画像と高速なパフォーマンスを見ているので、機能の数を約 25 に減らしました。そして、問題は 2 番目のパラメーターから始まります。デフォルト値は 1.2 です。少し前に 1 に設定しましたが、値が大きいほど高速であることがわかりました。問題は、私はこの問題を抱え始めているということです:
OpenCV エラー: アサーションに失敗しました ((type == CV8U && dtype == CV_32S) ||dtype == CV_32F) in cv_batchDistance, file..........stat.cpp, line 2480
次に、ピラミッド レベルのパラメーターです。デフォルトは 8 です。2 に設定すると、パフォーマンスが大幅に向上しました。しかし、1 に設定すると、上記と同じエラーがスローされます。
私は小さな写真で作業しているので、低い値に設定しようとしました。しかし、何も変わっていないようです。同じことが最後のパラメーター (patchSize) にも当てはまります。これらのパラメータはほぼ一致する必要があると述べています。
残りのパラメーターには興味がありません。
他の質問で説明したように、ビデオ内のオブジェクトを追跡しようとしています。そのために、すべての境界ボックスの機能を抽出し、次の機能の境界ボックスと一致させようとしています。これを行うことで、フレーム間の関係を構築しようとしています。これまでのところ、うまく機能しています。しかし、私はもっと速くなる必要があります。バウンディング ボックスが数個以上ある場合、30FPS でリアルタイムにしたいので時間がかかりすぎます。
誰かがこれらのパラメータで私を助けてくれれば、私はそれを感謝します.
android - OpenCVキーポイント機能をデータベースに保存するには?
私のプロジェクトは、OpenCV ライブラリを使用して Android で葉を認識することです。ORB 検出を使用して画像のキーポイントを取得し、ORB 記述子を使用してキーポイントの機能を取得しています。これは私が使用するコードです:
ソース: http://answers.opencv.org/question/6260/orb-features/
しかし、同じ画像を入力するたびに、その画像のキーポイントは常に異なります。キーポイントの機能が常に異なる場合、データベースに保存できますか? それとも、特徴データを保存するために画像を保存する必要がありますか? それがデータベースに保存できる場合、どうすればそれを行うことができますか??
python - ORB 記述子を使用したゼロ キーポイントの検出
画像データベースの ORB (Oriented FAST and Rotated BRIEF) 機能を計算しようとしています。nexr タスクは、画像の最終的な特徴を計算するために Bag Of Words アプローチを使用することです。私の問題は、場合によっては、データベースの画像から 0 キーポイントを取得することです (ORB または BRISK 実装のいずれか)。私のコードはhereからです。
ここで何ができるでしょうか。少なくとも 1 つのキーポイントを見つけることができますか? これらの場合に高密度サンプリングを使用するにはどうすればよいですか?
android - ORB 機能としきい値の照合
私のプロジェクトは、アンドロイドに基づくハーブ認識です。ORB を使用して、キーポイント、機能、および機能の照合を取得します。
このアルゴリズムを使用したい:
- 4 つの参照画像を使用し、それらの特徴 image1 を image1、1-2、1-3、1-4、2-3、3,4 に一致させます。
- 次に、データベースまでの最小距離と最大距離をしきい値として保存します。(最小しきい値 = 合計最小値/6)
- 新しい画像を認識したら、その新しい最小距離と最大距離をデータベースと比較します。しかし、私はそれを行う方法がわかりません。
{
このサイトから、次のコードを取得します。
その魔法の数 3 を取得する方法? そして、最大距離まで何をしなければなりませんか?
私が使用したいアルゴリズムは、以前に使用した Invariant Moment と City Block Distance を使用して、画像を最小距離に一致させました。