問題タブ [feature-tracking]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
winforms - 機能追跡WinForms
WinFormsアプリを拡張したいと思います。これは、ユーザーがどの機能を使用しているかを監視できる機能です。
アイデアは、たとえばボタンがクリックされた回数、またはポップアップが開かれた回数をカウントすることです。ユーザーが多かれ少なかれ使用している機能を知りたい。
これをどのように行うことができるかについてのアイデアはありますか?(または誰かがすでにこの問題を解決したとしても)
ティア、マーティン
bug-tracking - バグと(生産的な)todoアイテムの両方のトラッカー?
私はバグトラッカー(www.bugnotes.com)を使い始めたので、これは初めてです...そして私は簡単にバグを追加しています。ただし、特定の機能を実装したり、リファクタリングを実行したりすると、これらのバグの一部は修正されます。では、どうすればToDoリストタイプのものを効果的に追跡できますか?また、これらの種類のタスクはバグ追跡に結び付けられませんか?私が求めているのは、バグと機能の両方を追跡するツールだと思います。これらはすべてコードの変更であるためです。
ああ、マイナーな修正を#TODOまたは// TODO:として配置することは実際には素晴らしいことです。リファクタリングやドライバーやライブラリの変更などの大きなものではなく、マイナーなものにこれが好きです。
また、私はテキストファイルを使用していましたが、そこに入力されたものの多くが古くなり、すべてが私には役に立たないという問題があります。
c# - フィルタリングされた検出後の形状追跡
私は kinect を使用してコンピューター ビジュアル ソフトウェアを実行しています。私はプログラムを設定して、特定の距離を超えるものをすべて除外するようにしています。何かが手になるのに十分な大きさの近くに入ると、私のプログラムはそれを想定します。
ただし、この機能を拡張したいと考えています。現在、手が深度フィルタリングされた領域を離れると、ソフトウェアはその位置を追跡しなくなります。深さに関係なく、認識した後に手をたどるにはどうすればよいですか?
java - Android:MatOfPoint2fでcalcOpticalFlowPyrLKを使用する
MatOfPoint2fでcalcOpticalFlowPyrLKを使用できませんでした。私は自分のタイプを次のように宣言しました:
そして、以下を使用して機能を見つけて追跡します(私のコードは、RobertLaganiereによるC++のサンプルオプティカルフローアプリケーションに基づいています)。
以前は、変数points
は型List<List<Point>>
であり、MatOfPoint2fをインスタンス化してcalcOpticalFlowPyrLKに渡すことにより、型間で変換しfromList
ていました。
initial
ただし、このリストからのリストからリストへの変換では、とのポイント間の対応が失われるため、これはもう行いたくありませんでしたpoints
。この対応関係を維持したいので、両方の行列の項目を同時に繰り返すことでオプティカルフローラインを描画できます。
残念ながら、現在、次のアサーションエラーが発生しています。
不思議なことに、このアサーションを自分で追加すると、calcOpticalFlowPyrLKを呼び出す前に、失敗しません。
誰かが本当の問題がどこにあるのか、そしてフレーム間の追跡されたポイント間のこの関係をどのように維持できるのかを理解するのを手伝ってくれることを願っています。
編集:このアサーションエラーを回避するために何をする必要があるかを発見しました。アプリケーションは正しく動作しますが、次のようになります。
- 理由はわかりません。
- Calib3d.solvePnPについても同様の問題が発生していますが、convertToをimagePointsとobjectPointsに適用しても、ここでは問題が解決されませ
CvType.CV_32FC2
んCvType.CV_32F
。CvType.CV_64F
の場合のアサーションの失敗を修正するために、次のようにcalcOpticalFlowPyrLK
変更しました。points.get(0).push_back(initial);
だから私の質問は次のように変わりました:Calib3d.solvePnPで私の問題を解決する方法も知っているように、誰かが私のために一般的なケースを説明できますか?
java - MatOfDMatch のフィルタリング
http://docs.opencv.org/2.4.2/doc/tutorials/features2d/feature_flann_matcher/feature_flann_matcher.htmlを参照してください。
私のコードのある時点で、私は呼び出します
今、結果の一致をフィルタリングしたい場合は、次のような醜いことをしなければならないと思います:
- これは、リストへの醜い前後の変換なしで実行できますか?
- JNI 経由でこれを実行しようとしましたが、MatOFDMatch を Java から C++ に転送して戻すにはどうすればよいですか?
opencv - calcOpticalFlow の出力特徴ベクトルを描画するときの不正確なトラッキング
簡単な機能追跡プログラムを開発しようとしています。ユーザーがマウスで画面上の領域の輪郭を描くと、この領域のマスクが作成され、goodFeaturesToTrack に渡されます。次に、関数によって検出された機能が画面に描画されます (青い円で表されます)。
次に、関数によって返された特徴ベクトルを calcOpticalFlowPyrLk に渡し、結果の点のベクトルを画面上に描画します (緑色の円で表されます)。プログラムは流れの方向を正しく追跡しますが、何らかの理由で、calcOpticalFlow 関数によって出力される特徴が画面上のオブジェクトの位置と一致しません。
私が使用したロジックの小さな間違いのように感じますが、分解できないようです。皆さんからの助けに本当に感謝しています.
以下に私のコードを掲載しました。グローバル変数と乱雑な構造について深くお詫び申し上げます。現時点ではテストを行っているところですが、実行したらすぐにクリーンアップして OOP 形式に変換する予定です。
同様に、これは、私が闘っている行動を示す、私がアップロードした YouTube ビデオへのリンクです。
opencv - 画像内のモーション ブラー オブジェクトの追跡
画像内の移動オブジェクトの位置を追跡しようとしています。カメラの感度が非常に低いため、露出時間が長くなるため、被写体のモーション ブラーが大きくなります。テンプレートとして最初のぼやけていない画像を使用して、opencv関数matchTemplateを使用してNCC(相関)で追跡しようとしていますが、オブジェクトが移動すると、ほとんど「消え」、追跡できません。追跡可能な「モーション不変条件」をどのように見つけることができるかについてのアイデアはありますか?
ぼかしとオリジナルを追加。背景が車と同じくらい白い場合があることに注意してください...
matlab - Matlab の視覚関数を使用した新しい特徴点の再確立
私は、Matlab のビルトイン ビジョン関数と事前に作成されたサンプル コードを使用して、特徴点を追跡しています。私のサンプル ビデオでは、カメラが水平方向にパンし、新しいオブジェクトや風景が視野に入る一方で、前のオブジェクトや風景が視界の外に移動します。
カメラがシーン全体をパンしているときに新しい特徴点を特定しようとすると、問題が発生します。指定された数のフレームがステップスルーされた後に新しい特徴点を見つけるために、ビデオステップ while ループ内で「detectMinEigenFeatures」関数を使用しています。ただし、これを行っても、新しい特徴点の再確立には何の影響もありません。
簡単な情報: GoPro ビデオを使用して、720p までサンプリングし、.avi として保存
コードは以下に掲載されています。この問題の理解または解決に役立つ情報を喜んで提供します。
ありがとう!