AVFoundation と CoreVideo を使用して色情報、絞り、焦点距離の値をリアルタイムで取得する方法はありますか?
説明させてください。ビデオを撮影しているときに、画面の小さな部分で色をサンプリングし、それを RGB 値で画面に出力したいとしますか? また、現在の絞りが何に設定されているかを示したいと思います。
これらの値を収集できるかどうかは誰にもわかりませんか? 現在、これが静止画像で可能であることだけを見てきました。
アイデア?
AVFoundation と CoreVideo を使用して色情報、絞り、焦点距離の値をリアルタイムで取得する方法はありますか?
説明させてください。ビデオを撮影しているときに、画面の小さな部分で色をサンプリングし、それを RGB 値で画面に出力したいとしますか? また、現在の絞りが何に設定されているかを示したいと思います。
これらの値を収集できるかどうかは誰にもわかりませんか? 現在、これが静止画像で可能であることだけを見てきました。
アイデア?
AVCaptureStillImageOutput は、ビデオ ストリームからリアルタイムの静止画を取得します。これには、焦点距離、絞りなどの exif データが含まれます。そのビットマップから自分で計算できる色情報。
AVFoundation, CoreVideo, and CoreMedia include support for getting a video bitmap in "real-time". From there you can process a portion of the RGB pixels however you want.
I don't know of any current public iOS API to get you the aperture.
The focal length is fixed, but differs between product models. ifixit.com might have that info.