1

iPhoto アプリに表示されるのと同じように、単一のビューに明るさ、コントラスト、および露出フィルターを実装しようとしています。同じことをするためにグループフィルターを設定しようとしました。ただし、変更された画像ではなく白い画面が表示されます。これが私が適用したコードです。

 GPUImageFilterGroup *groupFilter = [[GPUImageFilterGroup alloc]init];
    GPUImageBrightnessFilter *brightnessFilter = [[GPUImageBrightnessFilter alloc]init];
    [brightnessFilter setBrightness:brightnessValue];
    GPUImageContrastFilter *contrastFilter = [[GPUImageContrastFilter alloc]init];
    [contrastFilter setContrast:contrastValue];
    GPUImageExposureFilter *exposureFilter =[[GPUImageExposureFilter alloc]init];
    [exposureFilter setExposure:exposureValue];
    [groupFilter addFilter:brightnessFilter];
    [groupFilter addFilter:contrastFilter];
    [groupFilter addFilter:exposureFilter];
     GPUImagePicture *stillImage= [[GPUImagePicture alloc]initWithImage:self.imageToModify];
    [stillImage addTarget:groupFilter];


    [stillImage processImage];

    previewPicture.image = [groupFilter imageFromCurrentlyProcessedOutputWithOrientation:self.imageToModify.imageOrientation];

それぞれを個別に配置しようとしましたが、それでも白い画像が表示されます。私が使用している上記のコードは正しいですか?GPUImageFilterPipelineの代わりに使用してみましGPUImageFilterGroupたが、それでも同じ問題が発生します。念のため、画像は静止画像であり、ライブ フィードではありません。

4

2 に答える 2

0

明るさ、コントラスト、彩度をビデオに適用する完全なコードは次のとおりです

このリンクから参照コードを取得し、それを変更します..

**このコードでは、GPUImage フレームワークを使用します

1)。.h ファイル内

#import "GPUImage.h"

@interface ViewController : UIViewController
{
    GPUImageMovie *movieFile;
    GPUImageMovieWriter *movieWriter;
    GPUImageUIElement *uiElementInput;
}

2)。.m ファイルで

- (void)editVideo
{
    NSURL *sampleURL = [[NSBundle mainBundle] URLForResource:@"Sample Video" withExtension:@"m4v"];

    movieFile = [[GPUImageMovie alloc] initWithURL:sampleURL];
    movieFile.runBenchmark = YES;
    movieFile.playAtActualSpeed = YES;

    GPUImageFilterGroup *groupFilter = [[GPUImageFilterGroup alloc]init]; //1

    GPUImageBrightnessFilter *brightnessFilter = [[GPUImageBrightnessFilter alloc] init]; //2
    GPUImageContrastFilter *contrastFilter = [[GPUImageContrastFilter alloc] init]; //3
    GPUImageSaturationFilter *saturationFilter = [[GPUImageSaturationFilter alloc] init]; //4

    [(GPUImageBrightnessFilter*)brightnessFilter setBrightness:0.10]; // change value between -1.00 to 1.00
    [(GPUImageContrastFilter*)contrastFilter setContrast:1.48];     // change value between 0.00 to 4.00
    [(GPUImageSaturationFilter*)saturationFilter setSaturation:2.00];   //change value between 0.00 to 2.00

    GPUImageAlphaBlendFilter *blendFilter = [[GPUImageAlphaBlendFilter alloc] init]; //5
    blendFilter.mix = 0.0;

                                                            /* ************************************************** */

    UIView *contentView = [[UIView alloc] initWithFrame:CGRectMake(0, 0, [[UIScreen mainScreen] bounds].size.width, [[UIScreen mainScreen] bounds].size.height-20)];
    contentView.backgroundColor = [UIColor clearColor];

    uiElementInput = [[GPUImageUIElement alloc] initWithView:contentView];
    [brightnessFilter addTarget:contrastFilter];
    [contrastFilter addTarget:saturationFilter];
    [saturationFilter addTarget:blendFilter];
    [uiElementInput addTarget:blendFilter];

    [(GPUImageFilterGroup *) groupFilter setInitialFilters:[NSArray arrayWithObject: brightnessFilter]];
    [(GPUImageFilterGroup *) groupFilter setTerminalFilter:blendFilter];

    [movieFile addTarget:brightnessFilter];
    [movieFile addTarget:contrastFilter];
    [movieFile addTarget:saturationFilter];

    // Only rotate the video for display, leave orientation the same for recording
    GPUImageView *filterView = (GPUImageView *)vwVideo;
    [brightnessFilter addTarget:filterView];
    [contrastFilter addTarget:filterView];
    [saturationFilter addTarget:filterView];
    [blendFilter addTarget:filterView];

    [brightnessFilter setFrameProcessingCompletionBlock:^(GPUImageOutput * filter, CMTime frameTime){
        if (frameTime.value/frameTime.timescale == 2) {
            [contentView viewWithTag:1].hidden = NO;
        }
        [uiElementInput update];
    }];

    [contrastFilter setFrameProcessingCompletionBlock:^(GPUImageOutput * filter, CMTime frameTime){
        if (frameTime.value/frameTime.timescale == 2) {
            [contentView viewWithTag:1].hidden = NO;
        }
        [uiElementInput update];
    }];

    [saturationFilter setFrameProcessingCompletionBlock:^(GPUImageOutput * filter, CMTime frameTime){
        if (frameTime.value/frameTime.timescale == 2) {
            [contentView viewWithTag:1].hidden = NO;
        }
        [uiElementInput update];
    }];

    //In addition to displaying to the screen, write out a processed version of the movie to disk
    NSString *pathToMovie = [NSHomeDirectory() stringByAppendingPathComponent:@"Documents/Movie.m4v"];
    unlink([pathToMovie UTF8String]); // If a file already exists, AVAssetWriter won't let you record new frames, so delete the old movie

    movieWriter = [[GPUImageMovieWriter alloc] initWithMovieURL:[NSURL fileURLWithPath:pathToMovie] size:CGSizeMake(640.0, 480.0)];
    [brightnessFilter addTarget:movieWriter];
    [contrastFilter addTarget:movieWriter];
    [blendFilter addTarget:movieWriter];

    // Configure this for video from the movie file, where we want to preserve all video frames and audio samples
    movieWriter.shouldPassthroughAudio = YES;
    movieFile.audioEncodingTarget = movieWriter;
    [movieFile enableSynchronizedEncodingUsingMovieWriter:movieWriter];

    [movieWriter startRecording];
    [movieFile startProcessing];

    [movieWriter setCompletionBlock:^{
        UISaveVideoAtPathToSavedPhotosAlbum(pathToMovie, nil, nil, nil);
    }];
}

*注:- 完璧な結果を得るには、シミュレーターではなくデバイスでデモ例を実行してください。

プロセスが完了すると、デバイスで効果のあるビデオが得られ、さまざまな効果のために setBrightness 、 setContrast 、および setSaturation の値を変更できます (コードを参照)

于 2014-12-23T07:32:15.680 に答える