アルファ付きの白い画像を撮り、色を付けます。これは、iOS 6 の以下のコードで問題なく機能しました。ただし、iOS 7 では、このコードを使用した後、ピクセル幅の白い境界線がゼロ以外のアルファ化された画像の端に残ります。ピクセル幅の白い境界線を維持する 2 つの OS 間で何が変更されましたか?
-(void)changeImageColorToColor: (UIColor *)color
CGFloat redC = 0.0, greenC = 0.0, blueC = 0.0;
const CGFloat *components = CGColorGetComponents(color.CGColor);
redC = components[0];
greenC = components[1];
blueC = components[2];
CGImageRef sourceImage = self.addedImageView.whiteColorVersion;
CFDataRef theData;
theData = CGDataProviderCopyData(CGImageGetDataProvider(sourceImage));
CFMutableDataRef mutableData = CFDataCreateMutableCopy(0, 0, theData);
UInt8 *pixelData = (UInt8 *) CFDataGetBytePtr(mutableData);
int dataLength = CFDataGetLength(mutableData);
for (int index = 0; index < dataLength; index += 4) {
pixelData[index + 0] = pixelData[index + 0] * redC;
pixelData[index + 1] = pixelData[index + 1] * greenC;
pixelData[index + 2] = pixelData[index + 2] * blueC;
}
CGContextRef context;
context = CGBitmapContextCreate(pixelData,
CGImageGetWidth(sourceImage),
CGImageGetHeight(sourceImage),
8,
CGImageGetBytesPerRow(sourceImage),
CGImageGetColorSpace(sourceImage),
kCGImageAlphaPremultipliedLast);
CGImageRef newCGImage = CGBitmapContextCreateImage(context);
UIImage *newImage = [UIImage imageWithCGImage:newCGImage];
CGContextRelease(context);
CFRelease(theData);
CFRelease(mutableData);
CGImageRelease(newCGImage);
self.addedImageView.image = newImage;
}