私は、Ubuntu プラットフォームの C で opencv 2.4.3 を使用してまばたきに取り組んでいます。
Haarカスケードを使用してライブビデオで顔と目を検出できましたが、顔を傾けるとアルゴリズムが顔を検出できず、顔が傾いていると検出できないこともネットで読みました。そのため、追跡が役立つと思います。
ライブビデオで顔と目を追跡するにはどうすればよいですか?
私は、Ubuntu プラットフォームの C で opencv 2.4.3 を使用してまばたきに取り組んでいます。
Haarカスケードを使用してライブビデオで顔と目を検出できましたが、顔を傾けるとアルゴリズムが顔を検出できず、顔が傾いていると検出できないこともネットで読みました。そのため、追跡が役立つと思います。
ライブビデオで顔と目を追跡するにはどうすればよいですか?
HaarCascade を初期検出として使用し、次にcv::GoodFeaturesToTrack()を使用していくつかの機能を抽出できます。次に、次のフレームごとに、最初の機能とフレーム (そこから th 機能を抽出したもの) と次のフレームをcv::calcOpticalFlowPyrLK()に渡し、これらの機能の新しい位置を計算します。cv::boundingRect(features) を使用して、一連の機能の境界となる cv::Rect を取得できます。