問題タブ [opticalflow]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
5 に答える
4468 参照

c++ - OpenCV サンプルプログラム lkdemo

参照、OpenCv\samples\c\lkdemo.c

次のコード スニペットの機能を知っている人はいますか?

lkdemo.c から抽出されたコード

Q1.

太線は何をしますか? >> ポイント[1][k++] = ポイント[1][i];

なぜ k++ なのか? 次のポイントが現在のポイントによって上書きされると考えて混乱しています

Q2.

フレーム ループとして描画される cvCircle id として、古いポイントがクリアされ、新しいポイントが描画される場所はどこですか?

皆様のご意見をお待ちしております。

ありがとう =)

0 投票する
3 に答える
4554 参照

opencv - 高密度オプティカル フローから速度ベクトルを抽出する方法は?

問題: 動画の 2 つのフレームを整列させようとしています。

現在、関数「cvCalcOpticalFlowLK」を使用しようとしていますが、結果は x と y の速度ベクトルを「CvArr」の形式で出力します。

結果は得られましたが、これらのベクトル配列の使用方法がわかりません。

私の質問はこれです...各ピクセルの速度をどのように知ることができますか? その特定のポイントの各ピクセル値の値だけですか?

注: cvCalcOpticalFlowPyrLK() などの他のオプティカル フロー関数を使用した方がはるかに簡単ですが、高密度のオプティカル フローが必要です。

0 投票する
4 に答える
3236 参照

localization - オプティカル フローを使用してロボットの移動距離を求める

私は現在、自律型ロボットを開発しているプロジェクトに取り組んでいます。基本的に、2 つの間隔の間にロボットが移動した距離を調べる必要があります。私は OpenCV を使用しており、OpenCV のオプティカル フロー機能を使用して、2 つの異なる画像の各ピクセルの速度/距離を調べることができます。この情報を使用して、これら 2 つの画像の間でロボットが移動した距離を調べたいと考えています。

ピクセルが移動した距離とボットが移動した距離の間の入出力マッピングを作成する方法を考えました (いくつかのテストを使用)。このように、ニューラル ネットワークを使用して関係を見つけることができます。ただし、オプティカル フローはピクセルからカメラまでの距離に依存するため、問題が発生する可能性があります。

この問題を解決する方法はありますか?

0 投票する
2 に答える
523 参照

localization - オプティカル フローを使用したロボットの移動距離

オプティカル フローを使用してロボットが移動した距離を調べる方法はありますか? たとえば、OpenCV を使用して、カメラで撮影した 2 つの画像間の各ピクセルの速度を調べることができます。ただし、ロボットが移動した対応する距離を見つけるために、これをどこに行けばよいかわかりません。これを行う方法を提案できますか?

私の主な目的は、ロボットのローカリゼーションを行うことです。そのためには、2 つのインスタンス間でロボットが移動した距離が必要です。

0 投票する
3 に答える
12796 参照

c# - オプティカル フロー トラッカーを実装するには?

私は OpenCV ラッパー - Emgu CV を使用しており、オプティカル フローを使用してモーション トラッカーを実装しようとしていますが、OF アルゴリズムから取得した水平情報と垂直情報を組み合わせる方法がわかりません。

私の問題は、移動するオブジェクトのトラッカーを構築するために、垂直方向と水平方向の動きの情報を組み合わせる方法がわからないことですか? 新しいイメージ?

ところで、現在のフレームにフロー情報を表示する簡単な方法はありますか?

前もって感謝します。

0 投票する
1 に答える
250 参照

bluetooth - 一連の静止画像に対してオプティカル フロー変換を実行するための適切なチュートリアルはありますか?

Bluetooth と X10 カメラを使用してラップトップで RC カーを誘導して写真を撮りたいと思っています。基本的に、RC カーを家の周りに誘導し、障害物を回避し、ナビゲートする方法を教えるという、それほど壮大な課題ではない DARPA を作成したいと考えています。あまり実用的ではありませんが、いじるのが楽しいです。RCカーがその光学系に関連する動きを認識できるようにするという目標を達成するための本、チュートリアル、またはオプティカルフローの代替案に関する提案。前もって感謝します!

0 投票する
2 に答える
10908 参照

iphone - カメラの動きを検出するための高速で非常に軽量なアルゴリズム?

私はiPhone用の拡張現実アプリに取り組んでいます。これには非常にプロセッサを集中的に使用するオブジェクト認識アルゴリズム(CPUを100%でプッシュすると、1秒あたり5フレームを通過できる可能性があります)が含まれ、バッテリーの電力を節約し、全体が「ぎこちない」ものではない私は、ユーザーが実際にカメラを動かしているときにのみ、そのオブジェクト認識機能を実行する方法を考え出そうとしています。

私が最初に考えたのは、iPhoneの加速度計/ジャイロスコープを使用することでしたが、テストの結果、iPhoneがまだ動いていることを知る方法がないほど、十分な姿勢と速度でiPhoneを動かすことが非常に多いことがわかりました。

そのため、実際のビデオフィードを分析し、その中の動きを検出するオプションが残りました。OpenCVを動作させて、ピラミッド型のLucas-Kanadeオプティカルフローアルゴリズムを実行してみました。これはうまく機能しますが、オブジェクト認識機能とほぼ同じくらいプロセッサを集中的に使用するようです。深度レベルを下げる/ダウンサンプリングすると、許容可能なフレームレートに到達できます。画像/追跡するポイントは少なくなりますが、精度が低下し、大きな動きを見逃し始め、小さな手で揺れるような動きでトリガーされます。

だから私の質問は、カメラの動きの全体的な大きさを検出したいだけの場合、Lucas-Kanadeよりも高速な別のオプティカルフローアルゴリズムはありますか?個々のオブジェクトを追跡する必要はありません。カメラがどちらの方向に動いているかを知る必要もありません。本当に必要なのは、2フレームのビデオをフィードして、それらがどれだけ離れているかを教えてもらう方法だけです。

0 投票する
1 に答える
5136 参照

python - 画像から車両の速度を見つける

私は画像から車の速度を見つけるプロジェクトを行っています。これらの画像は車内から撮影しています。最初の画像のオブジェクトを参照としてマークします。次の画像の同じオブジェクトのプロパティを使用して、移動する車両の速度を計算する必要があります。誰かがここで私を助けることができますか?私はpythonopencvを使用しています。オプティカルフロー法を使用して、2番目の画像でマークされたピクセルを見つけるまで成功しました。誰かが残りを手伝ってくれますか?

0 投票する
2 に答える
8306 参照

python - オプティカル フローを使用して実際の速度を計算する

2 つの画像から取得したオプティカル フロー情報を使用して、オブジェクトの実際の実際の速度を見つけるにはどうすればよいですか? 誰でも私を助けることができますか?

0 投票する
3 に答える
943 参照

math - SIMULINK でマトリックスを効率的にしきい値処理する方法 (ノイズの除去)

私はいくつかのオプティカル フローを行っており、速度のマトリックスを持っていますが、特定のしきい値を下回るエントリを破棄 (ゼロに置き換え) したいと考えています。マトリックス信号でこれを行う便利なブロックはありますか?