2

次のコードを使用して、画像の向きと最大サイズを標準化しています(他の場所から収集):

+ (UIImage *)scaleAndRotateImage:(UIImage *)image
{
    int kMaxResolution = 960; // Or whatever

    CGImageRef imgRef = image.CGImage;

    CGFloat width = CGImageGetWidth(imgRef);
    CGFloat height = CGImageGetHeight(imgRef);

    CGAffineTransform transform = CGAffineTransformIdentity;
    CGRect bounds = CGRectMake(0, 0, width, height);
    if (width > kMaxResolution || height > kMaxResolution) {
        CGFloat ratio = width/height;
        if (ratio > 1) {
            bounds.size.width = kMaxResolution;
            bounds.size.height = bounds.size.width / ratio;
        }
        else {
            bounds.size.height = kMaxResolution;
            bounds.size.width = bounds.size.height * ratio;
        }
    }

    CGFloat scaleRatio = bounds.size.width / width;
    CGSize imageSize = CGSizeMake(CGImageGetWidth(imgRef), CGImageGetHeight(imgRef));
    CGFloat boundHeight;
    UIImageOrientation orient = image.imageOrientation;
    switch(orient) {

        case UIImageOrientationUp: //EXIF = 1
            transform = CGAffineTransformIdentity;
            break;

        case UIImageOrientationUpMirrored: //EXIF = 2
            transform = CGAffineTransformMakeTranslation(imageSize.width, 0.0);
            transform = CGAffineTransformScale(transform, -1.0, 1.0);
            break;

        case UIImageOrientationDown: //EXIF = 3
            transform = CGAffineTransformMakeTranslation(imageSize.width, imageSize.height);
            transform = CGAffineTransformRotate(transform, M_PI);
            break;

        case UIImageOrientationDownMirrored: //EXIF = 4
            transform = CGAffineTransformMakeTranslation(0.0, imageSize.height);
            transform = CGAffineTransformScale(transform, 1.0, -1.0);
            break;

        case UIImageOrientationLeftMirrored: //EXIF = 5
            boundHeight = bounds.size.height;
            bounds.size.height = bounds.size.width;
            bounds.size.width = boundHeight;
            transform = CGAffineTransformMakeTranslation(imageSize.height, imageSize.width);
            transform = CGAffineTransformScale(transform, -1.0, 1.0);
            transform = CGAffineTransformRotate(transform, 3.0 * M_PI / 2.0);
            break;

        case UIImageOrientationLeft: //EXIF = 6
            boundHeight = bounds.size.height;
            bounds.size.height = bounds.size.width;
            bounds.size.width = boundHeight;
            transform = CGAffineTransformMakeTranslation(0.0, imageSize.width);
            transform = CGAffineTransformRotate(transform, 3.0 * M_PI / 2.0);
            break;

        case UIImageOrientationRightMirrored: //EXIF = 7
            boundHeight = bounds.size.height;
            bounds.size.height = bounds.size.width;
            bounds.size.width = boundHeight;
            transform = CGAffineTransformMakeScale(-1.0, 1.0);
            transform = CGAffineTransformRotate(transform, M_PI / 2.0);
            break;

        case UIImageOrientationRight: //EXIF = 8
            boundHeight = bounds.size.height;
            bounds.size.height = bounds.size.width;
            bounds.size.width = boundHeight;
            transform = CGAffineTransformMakeTranslation(imageSize.height, 0.0);
            transform = CGAffineTransformRotate(transform, M_PI / 2.0);
            break;

        default:
            [NSException raise:NSInternalInconsistencyException format:@"Invalid image orientation"];

    }

    UIGraphicsBeginImageContext(bounds.size);

    CGContextRef context = UIGraphicsGetCurrentContext();

    if (orient == UIImageOrientationRight || orient == UIImageOrientationLeft) {
        CGContextScaleCTM(context, -scaleRatio, scaleRatio);
        CGContextTranslateCTM(context, -height, 0);
    }
    else {
        CGContextScaleCTM(context, scaleRatio, -scaleRatio);
        CGContextTranslateCTM(context, 0, -height);
    }

    CGContextConcatCTM(context, transform);

    CGContextDrawImage(UIGraphicsGetCurrentContext(), CGRectMake(0, 0, width, height), imgRef);
    UIImage *imageCopy = UIGraphicsGetImageFromCurrentImageContext();
    UIGraphicsEndImageContext();


    return imageCopy;

}

このコードは、回転が UIImageOrientationUp に変換された UIImage を正しく返し、画像が最大画像サイズを超えた場合は縮小される可能性があります。このコードは、UIView で UIImage を表示する場合にうまく機能します。

ただし、その新しい UIImage を取得し、その CGImage コンテンツをビットマップ コンテキストに抽出すると、次のステップで問題が発生します。

CGImageRef inImage = inputImage.CGImage;

// create data object for direct pixel manipulation
CFDataRef m_DataRef;
    m_DataRef = CGDataProviderCopyData(CGImageGetDataProvider(inImage));
    UInt8 * m_PixelBuf = (UInt8 *) CFDataGetBytePtr(m_DataRef);

//create initial context for drawing on the eyelids
CGContextRef ctx = CGBitmapContextCreate(m_PixelBuf,
                                         CGImageGetWidth( inImage ),
                                         CGImageGetHeight( inImage ),
                                         8,
                                         CGImageGetBytesPerRow( inImage ),
                                         CGImageGetColorSpace( inImage ),
                                         CGImageGetAlphaInfo( inImage ) );

そして、それを UIImage に戻して、すべての色が間違っています。inImage から取得した CGImageGetAlphaInfo をチェックして、kCGImageAlphaPremultipliedFirst に設定されたコンテキストを設定しました。AlphaInfo を強制的に kCGImageAlphaPremultipliedLast にすると、少なくとも画像は表示されましたが、赤は明らかに青として表示されていました。最後に、ビットマップ内の RGBA データが ABGR に転置されていることがわかりました。ループを作成してバイト順を RGBA に転置することで、CGImage から作成されたコンテキストを使用して正しい UIImage を再作成できることがわかりました。

スケール アンド ローテーション メソッドを通過したときにのみ、この ABGR 問題が発生します。私の理解では、UIImage を CGbitmapContext に変換し、独自のメタデータをコンテキスト パラメーターとして使用して、まったく同じ画像を受け取ることができるはずです。

私の質問は: ビットマップ ピクセルのバイト順が ABGR に変更されるのはなぜですか? それ自体から作成された BitmapContext から直接 CGImage を再作成できないという CGImage メタデータがどのようにめちゃくちゃになったのですか?

前もって感謝します!

4

0 に答える 0