AVFoundation を使用し、顔、目、口の位置を追跡するアプリがあります。CIFaceFeature を使用してこれらを検出し、画面上にマークします。
フレームワークを使用してウィンクを検出する簡単な方法はありますか?
AVFoundation を使用し、顔、目、口の位置を追跡するアプリがあります。CIFaceFeature を使用してこれらを検出し、画面上にマークします。
フレームワークを使用してウィンクを検出する簡単な方法はありますか?
iOS 7 の場合、はい、CoreImage で実行できるようになりました。
iOS 7 Beta 2 の API 差分は次のとおりです。
CoreImage
CIDetector.h
Added CIDetectorEyeBlink
Added CIDetectorSmile
iOS 7 より前:
いいえ、今のところ iOS フレームワーク (AVFoundation または CoreImage) には方法がありません。
OpenCVでチェックアウトできます...しかし、それはより研究的なトピックであり、さまざまな状況でうまく機能することを保証するものではありません:
最初に、目を閉じる/開く分類器を構築する必要があります。OpenCV には組み込みのまばたき分類器がないため、十分な「閉じる」サンプルと「開く」サンプルを収集し、バイナリ分類器をトレーニングする必要があります。(主成分分析 + サポート ベクター マシンの使用をお勧めします。どちらも OpenCV で利用できます)
次に、iOS で CoreImage を使用して両目の位置を検出します。そして、目の中心の周りに正方形のパッチ イメージをカットします。パッチのサイズは、検出された顔の境界の四角形に関して正規化する必要があります。
次に、UIImage/CIImage を OpenCV IplImage または CvMat 形式に変換し、それらを OpenCV 分類器にフィードして、目が開いているか閉じているかを判断する必要があります。
最後に、目の開閉の順序に基づいてウインクがあるかどうかを判断します。
(処理フレーム レートがウィンク アクションを選択できるかどうかも確認する必要があります。たとえば、ウィンクが 0.5 フレーム以内に発生したとします...その後、それを検出することはありません...)
これは難しい問題です...そうでなければ、Appleはすでにフレームワークにそれらを含めていたでしょう.