3

以下を使用して、カメラからの画像データを UIImage に変換しています。時間とメモリを節約するために、画像データを UIImage に変換する前にトリミングしたいと思います。

理想的には、cropRect を渡し、トリミングされた UIImage を取得します。ただし、カメラの出力は、写真またはビデオのプリセットを使用しているかどうかに基づいて異なるサイズになる可能性があるため、cropRect に使用するサイズがわからない場合があります。(0,0) と (1,1) の間の CGPoint を使用するフォーカス ポイントまたは露出ポイントと同様に、cropRect を使用できます。cropRect の CGSize についても同様です。または、以下を呼び出す前に sampleBuffer のサイズを取得し、適切な cropRect を渡すことができます。どちらを使えばいいのかアドバイスをいただきたいです。

また、UIImage全体を作成してから切り抜く必要がないように、切り抜く方法を知りたいです。通常、私はピクセルの約 10 ~ 20% を保持することにのみ関心があります。必要なすべてのピクセルが得られるまで、ピクセルを反復処理し、cropRect を別のピクセル バッファーにコピーする必要があると仮定します。

また、 に従ってローテーションが発生する可能性があることに注意してorientationください。

+ (UIImage *) imageFromSampleBuffer:(CMSampleBufferRef) sampleBuffer orientation:(UIImageOrientation) orientation
{
    // Create a UIImage from sample buffer data
    // Get a CMSampleBuffer's Core Video image buffer for the media data
    CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer); 
    // Lock the base address of the pixel buffer
    CVPixelBufferLockBaseAddress(imageBuffer, 0); 

    // Get the number of bytes per row for the pixel buffer
    void *baseAddress = CVPixelBufferGetBaseAddress(imageBuffer); 

    // Get the number of bytes per row for the pixel buffer
    size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer); 
    // Get the pixel buffer width and height
    size_t width = CVPixelBufferGetWidth(imageBuffer); 
    size_t height = CVPixelBufferGetHeight(imageBuffer); 

    // Create a device-dependent RGB color space
    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB(); 

    // Create a bitmap graphics context with the sample buffer data
    CGContextRef context = CGBitmapContextCreate(baseAddress, width, height, 8, 
                                                 bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst); 
    // Create a Quartz image from the pixel data in the bitmap graphics context
    CGImageRef quartzImage = CGBitmapContextCreateImage(context); 
    // Unlock the pixel buffer
    CVPixelBufferUnlockBaseAddress(imageBuffer,0);

    // Free up the context and color space
    CGContextRelease(context); 
    CGColorSpaceRelease(colorSpace);

    // Create an image object from the Quartz image
    UIImage *image = [UIImage imageWithCGImage:quartzImage scale:(CGFloat)1.0 orientation:orientation];
    // Release the Quartz image
    CGImageRelease(quartzImage);

    return (image);
}

要約すれば:

  1. (0,0,0,0) と (1,1,1,1) の間の四角形を指定する cropRect を渡す必要がありますか、それとも (50,50,100,100) のような正確なピクセル位置を指定する cropRect を渡す必要がありますか?
  2. ピクセル バッファをトリミングするにはどうすればよいですか?
4

1 に答える 1

2

少なくともある時点でfloat-valuesをpixel-valuesに変換する必要があるため、ピクセルをcropRectとして使用する必要があると思います。次のコードはテストされていませんが、アイデアが得られるはずです。

CGRect cropRect = CGRectMake(50, 50, 100, 100); // cropRect
CVPixelBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
CVReturn lock = CVPixelBufferLockBaseAddress(pixelBuffer, 0);
if (lock == kCVReturnSuccess) {
    int w = 0;
    int h = 0;
    int r = 0;
    int bytesPerPixel = 0;
    unsigned char *buffer;
    w = CVPixelBufferGetWidth(pixelBuffer);
    h = CVPixelBufferGetHeight(pixelBuffer);
    r = CVPixelBufferGetBytesPerRow(pixelBuffer);
    bytesPerPixel = r/w;
    buffer = CVPixelBufferGetBaseAddress(pixelBuffer);
    UIGraphicsBeginImageContext(cropRect.size); // create context for image storage, use cropRect as size
    CGContextRef c = UIGraphicsGetCurrentContext();
    unsigned char* data = CGBitmapContextGetData(c);
    if (data != NULL) {
        // iterate over the pixels in cropRect
        for(int y = cropRect.origin.y, yDest = 0; y<CGRectGetMaxY(cropRect); y++, yDest++) { 
            for(int x = cropRect.origin.x, xDest = 0; x<CGRectGetMaxX(cropRect); x++, xDest++) {
                int offset = bytesPerPixel*((w*y)+x); // offset calculation in cropRect
                int offsetDest = bytesPerPixel*((cropRect.size.width*yDest)+xDest); // offset calculation for destination image
                for (int i = 0; i<bytesPerPixel; i++) {
                    data[offsetDest+i]   = buffer[offset+i];
                }
            }
        }
    } 
    UIImage *img = UIGraphicsGetImageFromCurrentImageContext();
    UIGraphicsEndImageContext();
}
于 2012-05-02T21:06:33.450 に答える