AVCapture Foundation を使用して、デリゲート コールバックを介して (iPhone 4 のフロント カメラから) 画像を取得しています。次の形式で BGRA を指定しました。
self.theOutput.videoSettings = [NSDictionary dictionaryWithObject:[NSNumber numberWithInt:kCVPixelFormatType_32BGRA] forKey:(id)kCVPixelBufferPixelFormatTypeKey];
ここで、self.output は AVCaptureVideoDataOutput 型です。
そして、画像を正しくプレビューできます。
個々のピクセル RGB をテストして理解を深める簡単な方法を見つけようとしましたが、たとえばカメラの上に青いカードをかざしましたが、予想される 0,0,255 とは対照的に、数値は 80 ~ 110 の間で変動します。
白いカードをカメラにかざすと、RGB ごとに 255 と予想されますが、すべてで 120 に近づいています。白は全品50%引きのようです。何らかの理由?しかし、カメラに直接光を当てると、RGB 要素ごとに 255 になります。
ここで基本的な理解が欠けているように感じます。