ココアを使用してウェブカメラから画像を取得しようとしています。QTKit と didOutputVideoFrame デリゲート呼び出しを使用して RGBA 形式で画像を取得し、CVImageBuffer を CIImage に変換してから NSBitmapImageRep に変換します。
カメラが YUV でネイティブにグラブすることはわかっています。私が望むのは、YUV データを CVImageBuffer から直接取得し、表示する前に YUV フレームを処理することです。
私の質問は、CVImageBuffer から YUV データを取得するにはどうすればよいですか?
ありがとう。