opencv を使用して視線の方向を知るには、視線のアルゴリズムを実装する必要があります。
opencvが提供するトレーニング分類器を備えたviola-jonesアルゴリズムを使用して、1か月間苦労してきました
最初のステップでは、facedetection.cpp から始まる私の研究に基づいて、顔と目の xml を使用しました。顔と目を 1m 未満で検出できますが、目の方向を知る方法は見つかりませんでした。
いくつかの調査の後、視線のアルゴリズムをいくつか見つけましたが、単純さ(私は初心者なので)と効率の観点から選択するものはありません:
距離しきい値アルゴリズム
平均シフトアルゴリズム
エッジ検出 ==> ハフ変換
最長ラインスキャン 遮蔽された円形エッジ
「一円」と「二円」のマッチングアルゴリズム
ニューラルネットワークベースのアプローチ
主成分分析 (PCA)。
スターバーストアルゴリズム
カルマン フィルター速度
閾値眼球運動識別
アクティブアピアランスモデル (AAM)
CCL : 連結成分ラベリング アルゴリズム
CCA : 植民地競争アルゴリズム
ブロブ検出
ルーカス・カナデ
それで、あなたが私に勧めたアルゴリズム、そして私が言及していない別のアルゴリズムアルゴリズムがある場合、それらのアルゴリズム間の比較も必要ですが、それはこの分野の経験のある人でなければなりませんNB:私はubuntu 14.04を使用しており、C ++で開発しています
どんな助けでも大歓迎です、ありがとう:)