問題タブ [human-computer-interface]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
human-computer-interface - ユーザーの物理的な相互作用を、意図したインターフェイスの設計要件にマッピングすることは重要ですか?
ユーザーの物理的な相互作用を、意図したインターフェイスの設計要件にマッピングすることは重要ですか? これらの活動の両方を別々に実行できないのはなぜですか? 答えの理由を教えてください
android - オブジェクトが非表示に設定された後、Android で onTouch リリース イベントを検出する方法は?
これが私が必要とするものです。
オブジェクト A、B があるとします。最初、オブジェクト B の可視性は に設定されGONE
、オブジェクト A の可視性は に設定されていVISIBLE
ます。
オブジェクト A に触れると、 AGONE
と Bが作成されVISIBLE
ます。B を解放すると、 BGONE
と Aが作成されVISIBLE
ます。問題は、B を再度押さずに実行する必要があることです。
これが私が試したものです。
ACTION_DOWN
A と同じ Aにタッチ イベントを設定ACTION_UP
すると、説明したように B が表示されたり非表示になったりします。ACTION_UP
A の可視性を に設定した後にトリガーされないため、これは機能しませんGONE
。ACTION_DOWN
A で AGONE
を作成し B を作成するタッチ イベントを設定しVISIBLE
、同時に、 BACTION_UP
でオブジェクトの可視性が反転するように新しいイベント リスナーを設定します。B が表示された後、リリースする必要があるため、これも機能しません。もう一度 B を押してからリリースすると機能します。
私の質問。
オブジェクトがタッチされたと想定されるように onTouch リスナーを設定することは可能ですか? もう一度押す必要がないようにするには?
オブジェクトの可視性が に設定された後にonTouch
ACTION_UP
イベントを検出することは可能GONE
ですか?
すべてのアイデア、例、リンクを歓迎します。手伝ってくれてありがとう!
machine-learning - シンプルな Web カメラ マウス
オブジェクト:-可視光を使用して Web カメラ マウスを実装するにはどうすればよいですか。
詳細:- i.stack.imgur.com/6ztqf.jpg のように、私の右手を可視光で見る Web カメラがあります :-
実際のマウスがあるのと同じように、(右手) の手でマウス ポインターを制御するシステムを作成したいと考えています。私はテーブルの上に手を置き、手に実際のネズミがあるかのように振る舞い、手にネズミがあるかのようにすべてのアクションを実行します。そして、通常の Web カメラ (精度を高くするには解像度が良いかもしれません) が、上から特定の角度で私の手を監視します。
それを行うための魔法の機械学習システムがあるとします。(カメラの位置を常に固定する、限られた長方形でマウスを常に移動するなど、あらゆる種類の制約を受け入れることができます...)
トレーニング フェーズでは、通常どおり実際のマウスを使用して、大量のデータを生成します。データは、入力としての多数の画像と、出力としてのマウス位置、クリックで構成されます。2 つのマイクを追加してクリック音を検出し、クリック音があることを確認するなど、あらゆることに柔軟に対応できます (ただし、実際のマウスからのマウス クリック音は、マウス クリックを模倣するためにテーブルに指を当てたときの音とは異なります)。しかし、音の存在はクリックがあることを確認します. そして、2 つのマイクは、それが左クリックか右クリックかを確認します.) これで、このすべてのデータを使って、私のシステムは、手とマウスのアクション (この最初のバージョンではあまり正確ではないかもしれません)。
実行段階では、マウスを取り外して、マウスがある場合と同じ位置に手を置き、このシステムを使用して手のイメージをマウス アクションに変換し始めます。テーブルの 2D 平面で持ち物を動かし、右/左クリックのように指を動かします。私のシステムは、リアルタイムで画像を取得し、トレーニング段階で収集したすべてのデータを利用して、マウス操作で画像を変換する必要があります。
これを構築する方法を教えてください。私はコンピューター ビジョンと機械学習について平均的な知識を持っています。
image - cctv 画像から顔を検出する
私の要件は、与えられた cctv 画像から人間の顔を検出する必要があることです。cctv 画像には、削除する必要がある不要なオブジェクトがあります。取得した顔画像がぼやけている場合は、品質も改善する必要があります。
現在、opencv API を試しています。コードは次のとおりです。
}
上記のアプローチでは、画像の複数のオブジェクトが顔として検出されますが、これはエラーです。
cctvc 画像で側面しかない場合、完全な顔を抽出するにはどうすればよいですか?
Pls は、私の要件を達成するための最善の方法を提案します。
ありがとうIMGen