問題タブ [back-projection]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c++ - BackProjection は非常に優れていますが、CamShift はオブジェクトを追跡するだけです。
編集:オブジェクトが問題から入るフレームの側面のようです。なぜそうなるのかはわかりませんが、右から入ると常に拾われます。上からは、右に近づくまで決して拾われません。
つまり、OpenCV と CamShift を使用してオブジェクトを追跡しようとしています。バックプロジェクション画像を計算して表示しましたが、見栄えがします。その基本的には、黒い背景に白い塊です。ただし、私のプログラムは時々それを拾うだけです。CamShift の検索ウィンドウは画像全体をカバーし、オブジェクトが画面に表示されると縮小し、オブジェクトが離れると再び拡大します。これは約2/3回うまく機能します。3回目で何が悪いのかわかりません。
http://imgur.com/a/rVw2l : 私の言いたいことを示すスクリーンショットのアルバム。緑色の四角形は検索ウィンドウ (trackWindow) で、赤色は CamShift (trackBox) のrotatedRect 出力です。
何か案は?基準で遊んでみましたが、あまり効果がないようでした。
python - BackProjection と Opencv の問題
手を検出するために、opencv を使用して逆投影アルゴリズムを実装しようとしています。このアルゴリズムは、複数のソースから構成されています。より良い結果を得るために、モルフォロジーや投影に backgroundSubtraction を追加するなど、複数の方法を試しました。オンラインでも調べました。しかし、私は下の写真を取得し続けます。私が間違っている可能性があることについて誰か提案がありますか?
-ありがとうございました
backProjection だけを使用したコードは次のとおりです。
これは、手の認識に役立つ画像です。
これはしきい値処理された画像です:
写真には明らかに手の部分がほとんどなく、ノイズが多くなっています。
matlab - matlab でのフィルター逆投影 / iradon の定性的および定量的分析
誰かがこの問題に遭遇したかどうか疑問に思っていました。
元の画像に似た matlab から画像を再構築できますが、実際の値は常に異なります。
たとえば、元の画像の行列の値は 0 から 1 の範囲ですが、再構築された画像の範囲はたとえば -0.2 から 0.4 です。
再構成された画像は元の画像と似ていますが、画像内のデータの縮尺が異なるだけです。
これは私が意味するサンプルコードです。
c++ - glm::unproject による 2D エッジから 3D モデル空間へ - 光線がモデルと交差しない
コリジョンを使用してレイ ピッキングを実行しようとしています。つまり、画面上の 2D 位置がモデル空間の 3D 位置に変換されます。私の問題は、光線が常にモデルと交差して有効な 3D 位置になるとは限らないことです。
これが私がすることです:
後でフレームバッファに深度テクスチャを作成しますglReadPixels()
。
その後、深度を線形化し、次の方法cv::Mat_<uchar>
でエッジ検出用に保存しcv::Canny()
ます:(画像を反転することを忘れないでください。)
...そして輪郭を取得します
輪郭の 2D 座標 (x,y) は、次の方法で 3D モデル座標に変換されます。
これを実行して 3D ポイントを確認すると、一部の光線がモデルと交差していないことがわかります。光線の長さは遠平面の値に近いです。入力 (x,y) の周囲の 1 ピクセル近傍も見て、入力を広げようとしました。それでも一部の光線はモデルと交差しません。
これはなぜですか?またはそれを解決する方法は?以前のぼかしを使用したエッジ抽出が原因ですか?
分布がわかる画像を添付しました。青い点はモデルと交差していない点 (遠平面の値に近い光線の長さ) で、赤い点は交差しています。テストにはティーポット モデルを使用しました。
読みやすくするために、ここにコード全体を貼り付けたくありませんでした。何が問題なのかをよりよく理解するために、さらにコードや情報が必要な場合は、お知らせください。
python - OpenCv RGB ヒストグラムの逆投影が期待どおりに機能しない
逆投影を使用して、人物のヒストグラムを知っている画像内の人物を特定します。問題は、肌や透明な服では機能しないことです. ここに私が得るものがあります:逆投影の結果
関心領域の BGR ヒストグラムを計算するために使用するコードは次のとおりです。
取得したヒストグラムは人物の色と一致していますが、人物を含む画像に逆投影を適用すると、逆投影の結果に示すように、人物の暗い領域のみがゼロ以外の値になります。
1 つのピクセルでヒストグラムの逆投影をテストしましたが、結果がわかりません。私はこれを得る:
histSize = [8,8,8] であるため、ピクセル (b=66、g=66、r=34) はヒストグラム ビン [2,2,1] に対応する必要がありますが、逆投影は 141 ではなく 0 を返します。
私が間違っていることについて何か考えはありますか?
matlab - iradon が負のピクセル値を返すのはなぜですか?
LabVIEW ソフトウェアを使用して、1.8 度のステップ角度で 200 個の投影を行いました。画像のサイズは 2748 x 2748 ピクセル、uint16 です。次に、Matlab を使用して、投影画像を読み込み、フラット フィールド補正を行い、画像のサイズを 1/3 に変更して、画像を .mat ファイルとして保存します。次に、フィルター処理された逆投影に対して以下のコードを実行します。
このコードでフィルターを使用すると、負のピクセル値が得られます。
しかし、フィルターなしでコードを実行すると、正のピクセル値が得られます。
フィルター処理された逆投影で iradon が負のピクセル値を返す理由は何ですか?
ありがとうございました。
ヌルル