問題タブ [motion-detection]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
iphone - ユーザーの回転動作の検出
私はCoreMotionフレームワークを実験して、iphoneを手に持って、たとえばメリーゴーランドで回転しているユーザーを検出しました。自身の軸の周りのデバイスの動きを検出する方法はありますが、iPhoneが円を描くように回転していることを検出する良い方法は何ですか?ありがとう
computer-vision - Openni「次のノードの1つ以上を列挙できませんでした」
openniとNITEの最新バージョンを次の順序でインストールしました。
Openni1.3.4.6不安定な開発エディションx64NITE1.4.2.5不安定な開発エディションx64Avin2センサーkinectx64from../platforms/win32ディレクトリ
私はWindows764ビットを使用しており、Kinectを接続しており、モックノードを使用していません。エラーを実行しようとすると、「次のノードの1つ以上を列挙できませんでした」
私のmodules.xmlの内容は次のとおりです。
以前のバージョンのOpenNIとNITEを使用してみたところ、同じ結果になりました。SamplesConfig.xmlにもライセンスキーを入力しましたが、他に変更はありません。画像と奥行きのプロダクションノードがあり、それだけです。
Avin2センサーkinectドライバーが最新バージョンのopenniで動作するかどうか知りたいのですが。kinectをopenni1.3.4.6で動作させるために、インストールの順序とどのドライバーをインストールしますか?
ありがとう
-シッダールス
video-processing - 動きが発生したときにイベントを発生させる
Kinect SDKを使用して、Kinectからデータを読み込みます。現時点では、数秒ごとにストリームから画像を保存して音声の録音を開始するアプリケーションがありますが、動きが検出されたときにのみコードを実行したいです(動きが検出されたときに記録を開始するセキュリティカメラを考えてみてください)。動きが検出された場合にコードサンプルで発生するイベントを確認できません。人体が検出された場合に使用できる(私が正しければ)nui_SkeletonFrameReadyだけが近くにあります。これを行う簡単な方法はありますか?
matlab - 空間でのコロケーションを効率的に計算する方法
ポリラインP = {(x1, y1), ..., (xn, yn)}
と別のポリラインQ = {(x1, y1), ..., (xm, ym)}
(m は n と等しくないため、ポリラインの長さは異なる可能性があります) が与えられた場合、移動オブジェクト P と Q の軌跡が共通の位置 (例に示すように点 A、B、および C) を持つ場合、空間内のコロケーションが発生します。図)
コンセプトは非常にシンプルで、視覚的な観点からコロケーションが発生する場所を簡単に特定できます。最も難しい部分は、コロケーションを効率的に計算し、コロケーションが発生した x 座標と y 座標を返すアルゴリズムを実現する方法です!! このアルゴリズムは matlab で開発されるため、迅速に作業するために必要なものはすべて揃っています。
よろしくお願いします
iphone - モーションが検出されたときに懐中電灯を切り替える
私は現在小さなプロジェクトに取り組んでいます。プロジェクト/アプリの意味は、デバイスを振るとフラッシュが点火するということです。もう一度振ると消灯!
ライトのオンとオフの間の最初の 3/4 トグルは正常に機能しますが、3/4 トグルの後、デバイスが揺れを検出しないため、ライトをオフにすることはできません。
もう 1 つの小さな問題 (iOS 5.0 以降) は、モーションが検出されると、フラッシュが非常に短く (1 秒) 点滅し、電源がオンになることです。これは短いフラッシュのように見えます。
私は何を間違っていますか
揺れの検出:
フラッシュ ライトの切り替え:
私のために問題を解決するためのあなたの専門知識に本当に感謝しています!
flex4 - ジェスチャーをどのように作成し、認識しますか?
Web カメラを使用してビデオ フィードを取得し、このビデオ フィードでモーション トラッキングを実行しています。モーション トラッカーは(x,y)
座標を継続的に返します。
(x,y)
これらを使用して、「左にスワイプ」、「右にスワイプ」、「上にスワイプ」、「下にスワイプ」などのジェスチャーを認識したいと考えています。
これらのジェスチャのテンプレートを作成して保存するにはどうすればよいですか?また、ジェスチャの 1 つが発生したかどうかをどのように把握/認識するのですか?
前もって感謝します :)
PS : Flex 4 と ActionScript 3.0 を使用しています。誰かがロジックを手伝ってくれたら、ActionScript で書くことができます。
iphone - 加速度計を使用して歩数を数える方法は?
この歩数計アプリと同じ機能を開発する必要があります
私はこの歩数計アプリを非常に詳細に観察しました。
完璧な歩数計アプリではありません。たとえば、ある場所にとどまって手を振ると、歩数と距離も検出されます。
この理想的な重力の振る舞いは無視してください。このアプリの説明では、iPhoneを縛るか、ポケットに入れて歩数を数える必要があるとすでに述べています。このように、私はこのアプリが非常にうまく機能していることを発見しました、それはほとんどすべてのステップを検出します。
私の問題は次のとおりです。上記のロジックに従って1つのサンプルを開発しましたが、そのレベルまでは機能していません。たとえば、2〜3ステップを同時に検出する場合があります。そして時々それはうまくいく。
私のコード:
viewDidLoadの場合:
私は何が間違っているのですか?しきい値を特定できません。高くすると、小さなステップは検出されません。小さくすると、3〜4ステップ同時に登録されます。
これを行うために必要な他の実装、またはこのコードの微調整はありますか?
私は他のすべての同様のスタックオーバーフローリンクを見てきました。私が見つけたものは、このレベルまでは機能しません。
助けてください。
java - 画面全体の OnTouchListener
画面全体に OnTouchListener が必要です。すべてのビューを onTouchListener にアタッチしようとしましたが、悪い touchEvents が生成されます。これはメソッドをオーバーライドすることで実現できることを知っています。私が探しているのはリスナーソリューションです。ありがとう!
これはジェスチャ リスナーを使用して実行できますか?
.net - 2つのBitmapSourceの比較
WPFで2つの異なるビットマップソースを比較する方法があるかどうか疑問に思っていますか?
私のシナリオは、ImがWebカメラで簡単なモーションセンサーを作成しようとしていて、Webカメラから定期的にショットを撮っているというものです。次に、ショットから取得したbitmapSourcesを取得し、それらの間にデルタがあるかどうかを確認する必要があります(つまり、カメラフィードで何かが移動しました)。
前もって感謝します
algorithm - ビューファインダーの位置合わせ
Viewfinder Alignment methodで作業した人はいますか? 最初のステップ (エッジ検出) は多かれ少なかれ理解できます。「エッジを抽出するために、水平、垂直、および 2 つの対角線方向の 4 つの等間隔の方向で、画像の 2 乗勾配を取得します」と書かれています。( 1 ) 。そして、「次に、勾配の方向に垂直な方向に各勾配画像の積分射影を実行します」 ( 2 )。水平方向の場合、そのアルゴリズムを次のように実装しました。
私にとっての本当の問題は、2番目のステップであるEdge Alignmentです。px[i]1、py[i]1、pu[i]1、pv[i] 1とはどういう意味ですか? なぜそれらは1に等しいのですか? iカウンターはどう変わる?