重複の可能性:
人のスキャン画像で目を認識するiPhoneアプリ
ライブラリから、またはカメラを使用して写真をアップロードする必要があるという点で、iPadアプリケーションを開発しています。アップロード中に、ガラスを修正するために目の位置(ポイント)を取る必要があります。ガラスをクリックすると、特定の位置に面するように固定する必要があります
重複の可能性:
人のスキャン画像で目を認識するiPhoneアプリ
ライブラリから、またはカメラを使用して写真をアップロードする必要があるという点で、iPadアプリケーションを開発しています。アップロード中に、ガラスを修正するために目の位置(ポイント)を取る必要があります。ガラスをクリックすると、特定の位置に面するように固定する必要があります
私があなたの質問を理解している場合(そして私が理解しているのかどうかわからない場合)、iOS5に組み込まれている顔検出が最適です。高速で非常に使いやすいです。画像で顔が検出されると、左目と右目、および口のCGPointが取得されます。また、見つかった面の境界ボックスを表すCGRectを取得します。これにより、眼鏡画像を配置できるようになります。
そこにはたくさんのチュートリアルがありますが、それらのほとんどは不完全であるか、座標を台無しにしています。正しいものは次のとおりです:http://nacho4d-nacho4d.blogspot.com/2012/03/coreimage-and-uikit-coordinates.html
注意すべき点の1つは、チュートリアルでは小さな画像を使用しているため、結果の座標を画像の画面上の(UIImageView)表現に拡大縮小する必要がないことです。iPadカメラで撮影した写真を使用する場合、元の画像を拡大縮小する量だけ座標を拡大縮小する必要があります(顔検出ルーチンを実行する前にサイズを縮小しない限り、悪い考えではないかもしれません)。また、正しい向きにするために画像を回転させる必要がある場合もあります。
ここでの答えの1つにルーチンがあります:UIImagePickerControllerカメラプレビューは横向きアプリでは縦向きです
そして、この答えは、「アスペクトフィット」を使用してUIImageViewによって提示されたときに画像のスケールを見つけるための良いルーチンを持っています:UIImageViewでスケーリングされたUIImageのサイズを取得する方法は?