手を検出することを考えています。ユーザーがモバイル デバイスを持っているか、右手または左手、またはその両方です。私たちの知る限り、現在のハードウェアでは 100% の精度でこれを行うことは不可能であり、90% を超える精度があるとは考えていませんが、ほとんどのスマートフォンが持つ利用可能なセンサー データでこれを達成しようとすると、今日。それらのセンサー データをどのように処理し、どのように決定しますか?
私たちの最初の考えは、
- ジャイロスコープによる水平角度の確認、
- カメラによる顔認識と目との角度から判断し、
なぜそんなことをするのかと問われれば、
デバイスが大きくなるにつれて (samsung note-2、note-3 など)、画面の隅々まで触れるのが難しくなり、ユーザー エクスペリエンスや人間工学の問題が生じます。これを妥当な精度で自動的に検出できれば、レイアウトを調整してより良いユーザー エクスペリエンスを提供できると考えています。
感想をシェアしてくださった皆様、