問題タブ [motion-detection]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
math - SADとSSDの違い
SADとSDDの違いは何ですか?私は絶対差の合計と二乗差の合計について話しています。
ちょうどSSDに入って、二乗の差の測定値を取得しますか? 2 乗する代わりに、メジャーの絶対値を使用できます。
四角は何の役に立つの?
image-processing - 2コマだけで動きを判断する方法
フレームのシーケンスを使用して動体検出を学習しています。
これは 2 つのフレームの例です。右側のフレームで移動したオブジェクトを選択する必要があります。
あるフレームから別のフレームを差し引くことができます。選択した領域では、結果はゼロではありません => それはその領域での動きでした。しかし、右のフレームを見ると、背景も選択されていることがわかります。
どうにかして車を背景から切り離すことはできますか?
背景ピクセルを収集するときの方法だと思いますが、背景から画像を差し引くよりも、2つのフレームでは役に立ちませんよね?
android - Android MotionEvent:モーションがビューの外で発生したかどうかを確認します
ボタンとOnTouchListenerが接続されています。モーション(ユーザーがボタンを押したとき)がボタンの内側または外側で発生したかどうかを確認するにはどうすればよいですか?event.getAction()とevent.getActionMasked()はどちらも、それぞれActionDown、ActionUp、ActionMoveである0、1、または2のみを返します。定数MotionEvent.ACTION_OUTSIDEがあります。これは4ですが、ボタンの外側にタッチをドラッグしても、どういうわけかそれを受け取りません。両方のメソッドから2を受け取ります。どうしたの?
UPD:私は素晴らしい解決策を見つけました-ACTION_UPの後にビューでフォーカスされた状態をチェックするだけです。焦点が合っていない場合は、ビューの外側で動きが発生したことを意味します。
java - MotionEvent.ACTION_MOVE がいつ終了したかを検出する方法
ユーザーが特定のビューで移動を停止したときにアプリケーションで検出する必要があります。ユーザーがビューに触れて移動しているときに対話できるアプリケーションで、マーケテキストに似たものを作成しています。ユーザーが指を離した後、ビューのスクロールを開始する必要があります。ビュー上で数秒間指を動かし、指を離してもMotionEvent.ACTION_UP
が呼び出されないことに気づきました。私がキャプチャする最後のイベントはACTION_MOVE
. では、ビューを数秒間移動した後、ユーザーが指を離したことをどのように検出できますか? それを検出できる何らかの機能はありますか?
これが私が使用しているコードです:
前もって感謝します!
objective-c - シェイクAPIを使用してシェイクを検出する
motionBegan:
揺れを監視するために使用されるようなイベントmotionEnded:
は、私の見解にファーストレスポンダーがいる場合にのみ発生する可能性があります。さて、次のようにビューのファーストレスポンダーを作成できます[self.view becomeFirstResponder];
。しかし、ビューはデフォルトでファーストレスポンダーになることはできません(なぜですか?)ので、UIViewサブクラスを作成し、デフォルトcanBecomeFirstResponder
をにオーバーライドする必要がありますYES
。このUIViewサブクラスはどのように正確に役立ちますか?これはどのように機能しますか?助けてください。
image - OpenCVやSimpleCVなどを使用して、セットから著しく異なる画像を検出します
ある夜の間にウェブカメラで静止画像をキャプチャしました。画像の照明が均一であるため、大部分は同じです。ただし、一部は他の部分とは大幅に異なります。フレーム内で人間の動きが見えます。
動きが画像に含まれるように、どの画像が大幅に異なるかをどのように検出できますか?さらに良いことに、動きを具体的に検出する方法はありますか?
OpenCVやSimpleCVのようなライブラリはこれを簡単に実現できると思いますが、私はそれらを使用することに限定されていません。
ios - 3軸周りのiPhoneの向きの変化を計算するにはどうすればよいですか?
android OSを使用するほとんどの電話には、モーションイベントの一部を形成する方向センサーが含まれています。これらのセンサーは、ユーザーが設定した間隔でデバイスの向きの変化を出力します。しかし、iPhoneには方向センサーがありません。それでは、iPhoneでこのタスクを確立するにはどうすればよいですか?
前もって感謝します!
c++ - C ++でOpenCVを使用してmpegモーションベクトルをデコードする方法は?
C++でOpenCVを使用してMPEGモーションベクトルをデコードしたいと思います。
これを取得できるOpenCVの関数はありますか?
私の場合、明るさはビデオ全体で一定ではないかもしれません。
私はMPEGビデオインデックス作成のための効率的なカメラモーション特性評価の論文を参照しています
部分的なデコードを使用して、MPEG圧縮されたビデオシーケンスからモーションベクトルを取得すると書かれています。しかし、OpenCVを使用してこれを行う方法を判断できません。どうやって進める?
screenshot - スクリーンショットでの動きの検出
2つの連続するスクリーンショット間を移動したパーツを検出できる高速アルゴリズムがあるかどうかを知りたいです。アルゴリズムは2つの画像を取得し、一方の画像に一連の(長方形の)領域と、もう一方の画像のどこに一致する領域があるかを表すベクトルを出力する必要があります。
これを、画面キャプチャ用に合理化されたロスレスビデオ圧縮アルゴリズムに使用したいと思います。これにより、モーション検出の通常のアプリケーションとは少し異なるユースケースになると思います。
- 画像はスクリーンショットです。アーティファクトや画像ノイズが発生する可能性はほとんどありません
- 画像の一部が移動すると、ピクセル単位で移動します。移動したパーツは通常、ピクセルの2%未満しか異なりません。
- 移動する領域は大きく、長方形の形状をしていることがよくあります
ビデオ圧縮パイプラインには他のステップもあり、リアルタイムで実行する必要があるため、モーション検出は高速である必要があります。
何か役立つものはありますか?
android - Androidジャイロスコープと加速度計
私はAndroidゲームを構築していて、ユーザーがデバイスを左に傾けるか右に傾けるかを調べたいと思います(男性を左右に動かしたときのTemple Runの動作と同様です)。
私は多くのチュートリアルと例を読み、サンプルアプリケーションを作成しましたが、ジャイロスコープと加速度計の両方から返されるデータの量は圧倒的です。ユーザーがデバイスを傾けるかどうか、およびどちらの方向に傾けるかを判断するには、両方のハードウェアセットが必要ですか?
私の現在のアプリケーションはすべてのわずかな動きを検出していますが、それは明らかに正しくありません。
加速度計だけ、ジャイロスコープだけを使用したほうがいいでしょうか、それとも両方が必要ですか?