iOS(iPadまたはiPhone)でカメラでキャプチャしたリアルタイムの画像分析を行っています。実際には、鮮明な画像である画像を分析したいだけです。画像が鮮明でない場合は、破棄したいと思います。カメラの焦点が合っていないと、画像が鮮明でないことが知られています。
今私の質問は:
- iOS は、カメラがフォーカスを終了したことを示すインジケーターを提供できるかどうか?
- iPadのカメラを動かしてオブジェクトを狙う場合、オブジェクトの画像がクリアであることを示すインジケータを取得するにはどうすればよいですか?
私のプロジェクトでは、AVCaptureDevice を使用してオブジェクトをオートフォーカスします。カメラが焦点を合わせていることを示すインターフェイス「isAdjustingFocus」を提供します。しかし、画像が鮮明であると判断するだけでは十分ではありません。カメラを動かしてから停止すると、iOS がフォーカスを開始するのに多少の遅延があることがわかりました。そのため、iPadを動かすと画像がぼやけますが、インジケーターはまだ焦点が合っていないことを示しています。そのため、画像が鮮明であることをモードで知ることができません。