イメージに CIFilters を適用すると、メモリ使用量が増加し続け、何をすべきかわかりません。私はできる限りのことを試しました:
@autoreleasepool を使用:
- (UIImage *)applySepiaToneTo:(UIImage *)img //Sepia
{
@autoreleasepool
{
CIImage *ciimageToFilter = [CIImage imageWithCGImage:img.CGImage];
CIFilter *sepia = [CIFilter filterWithName:@"CISepiaTone"
keysAndValues: kCIInputImageKey, ciimageToFilter,
@"inputIntensity", @1.0, nil];
return [self retrieveFilteredImageWithFilter:sepia];
}
}
- (UIImage *)retrieveFilteredImageWithFilter:(CIFilter *)filtro
{
@autoreleasepool
{
CIImage *ciimageFiltered = [filtro outputImage];
CGImageRef cgimg = [_context createCGImage:ciimageFiltered
fromRect:[ciimageFiltered extent]];
UIImage *filteredImage = [UIImage imageWithCGImage:cgimg];
CGImageRelease(cgimg);
return filteredImage;
}
}
また、フィルター処理する画像を縮小し、バックグラウンド スレッドでフィルター処理を行っています。
- (void)filterWasSelected:(NSNotification *)notification
{
self.darkeningView.alpha = 0.5;
self.darkeningView.userInteractionEnabled = YES;
[self.view bringSubviewToFront:self.darkeningView];
[self.activityIndic startAnimating];
[self.view bringSubviewToFront:self.activityIndic];
int indice = [notification.object intValue];
__block NSArray *returnObj;
__block UIImage *auxUiimage;
if(choosenImage.size.width == 1280 || choosenImage.size.height == 1280)
{
UIImageView *iv;
if(choosenImage.size.width >= choosenImage.size.height)
{
float altura = (320 * choosenImage.size.height)/choosenImage.size.width;
iv = [[UIImageView alloc] initWithFrame:CGRectMake(0,0,320,altura)];
iv.image = choosenImage;
}
else
{
float largura = (choosenImage.size.width * 320)/choosenImage.size.height;
iv = [[UIImageView alloc] initWithFrame:CGRectMake(0,0,largura,320)];
iv.image = choosenImage;
}
UIGraphicsBeginImageContextWithOptions(iv.bounds.size, YES, 0.0);
[iv.layer renderInContext:UIGraphicsGetCurrentContext()];
auxUiimage = UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
}
else
auxUiimage = choosenImage;
dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_BACKGROUND, 0), ^{
if(artisticCollection)
returnObj = [self.filterCoordinator setupFilterArtisticType:indice toImage:auxUiimage];
else
returnObj = [self.filterCoordinator setupFilterOldOrVintageType:indice toImage:auxUiimage];
dispatch_async(dispatch_get_main_queue(), ^{
self.darkeningView.alpha = 0.3;
self.darkeningView.userInteractionEnabled = NO;
[self.activityIndic stopAnimating];
[self.view bringSubviewToFront:stageBackground];
[self.view bringSubviewToFront:stage];
[self.view bringSubviewToFront:self.filtersContainerView];
[self.view bringSubviewToFront:self.framesContainerView];
[self.view bringSubviewToFront:self.colorsContainerView];
if(returnObj)
{
auxUiimage = [returnObj firstObject];
NSLog(@"filtered image width = %f and height = %f", auxUiimage.size.width, auxUiimage.size.height);
returnObj = nil;
choosenImageContainer.image = auxUiimage;
}
});
});
}
また、 contextWithEAGLContextメソッドを使用してコンテキストを作成しようとしましたが、何も変わりませんでした。スタック オーバーフローを含め、多くのことを調査しましたが、何も見つかりませんでした。
画像を画像ビューに配置するまで (画像はフォト アルバムから取得されます)、23 メガのメモリしか使用していません。フィルターを適用すると、使用量が 51 メガに跳ね上がり、減少しません。他のフィルターを適用し続けると、メモリ使用量が増えるだけです。
私のアプリにはリンクがありません。Instruments をチェックインしました。また、bringSubviewToFront メソッドは責任を負いません。確認しました。これは、CIImage の作成とそれに続く CIFilter オブジェクトの作成にあります。フィルターを適用する過程でデータがメモリに読み込まれることは知っていますが、フィルターを適用した後にメモリをクリーンアップするにはどうすればよいですか?
私が気付いていない秘密はありますか?? 助けてください