1

ios5.1 で ffmpeg と iFrameExtractor をビルドしましたが、動画を再生すると音が出ません。

// Register all formats and codecs
avcodec_register_all();
av_register_all();
avformat_network_init();


if(avformat_open_input(&pFormatCtx, [@"http://somesite.com/test.mp4" cStringUsingEncoding:NSASCIIStringEncoding], NULL, NULL) != 0) {
    av_log(NULL, AV_LOG_ERROR, "Couldn't open file\n");
    goto initError;
}

ログは

[swscaler @ 0xdd3000] No accelerated colorspace conversion found from
 yuv420p to rgb24. 2012-10-22 20:42:47.344 iFrameExtractor[356:707]
 video duration: 5102.840000 2012-10-22 20:42:47.412
 iFrameExtractor[356:707] video size: 720 x 576 2012-10-22 20:42:47.454
 iFrameExtractor[356:707] Application windows are expected to have a
 root view

これは、ffmpeg 0.11.1 の構成ファイルです。

#!/bin/tcsh -f

rm -rf compiled/*

./configure \
--cc=/Applications/Xcode.app/Contents/Developer/Platforms/iPhoneOS.platform/Developer/usr/bin/gcc \
--as='/usr/local/bin/gas-preprocessor.pl /Applications/Xcode.app/Contents/Developer/Platforms/iPhoneOS.platform/Developer/usr/bin/gcc' \
--sysroot=/Applications/Xcode.app/Contents/Developer/Platforms/iPhoneOS.platform/Developer/SDKs/iPhoneOS5.1.sdk \
--target-os=darwin \
--arch=arm \
--cpu=cortex-a8 \
--extra-cflags='-arch armv7' \
--extra-ldflags='-arch armv7 -isysroot /Applications/Xcode.app/Contents/Developer/Platforms/iPhoneOS.platform/Developer/SDKs/iPhoneOS5.1.sdk' \
--prefix=compiled/armv7 \
--enable-cross-compile \
--enable-nonfree \
--disable-armv5te \
--disable-swscale-alpha \
--disable-doc \
--disable-ffmpeg \
--disable-ffplay \
--disable-ffprobe \
--disable-ffserver \
--enable-decoder=h264 \
--enable-decoder=svq3 \
--disable-asm \
--disable-bzlib \
--disable-gpl \
--disable-shared \
--enable-static \
--disable-mmx \
--disable-neon \
--disable-decoders \
--disable-muxers \
--disable-demuxers \
--disable-devices \
--disable-parsers \
--disable-encoders \
--enable-protocols \
--disable-filters \
--disable-bsfs \
--disable-postproc \
--disable-debug 
4

2 に答える 2

2

ここには十分な情報がありません。

たとえば、どのURLを開こうとしていますか?

ログにメッセージがある場所。バージョン.11を使用すると、network_initが含まれていないという警告がいくつか表示されますが、それでも動作が停止することはありません。以前のバージョンで機能していたいくつかの変更があります。以前は?tcpを追加して、ffmpegがtcpを使用していることを指定できましたが、現在は辞書で実行する必要があります。

可能であれば、syslogとビルドログの両方を提供してください。

これが私たちのアプリの1つからの例です

avcodec_register_all();
        avdevice_register_all();
        av_register_all();
        avformat_network_init();


        const char *filename = [url UTF8String];
        NSLog(@"filename = %@" ,url);
       // err = av_open_input_file(&avfContext, filename, NULL, 0, NULL);
        AVDictionary *opts = 0;

        if (usesTcp) {
            av_dict_set(&opts, "rtsp_transport", "tcp", 0);
            }

         err = avformat_open_input(&avfContext, filename, NULL, &opts);
        av_dict_free(&opts);
        if (err) {
            NSLog(@"Error: Could not open stream: %d", err);

            return nil;
        }
        else {
            NSLog(@"Opened stream");
        }
于 2012-10-21T15:19:44.523 に答える
2

したがって、次のようなコードのブロックがあると仮定すると、オーディオをどうするか、オーディオ API の 1 つを使用して処理する必要があります。主に既知のタイプを扱う場合は、おそらく audioQueues が最も簡単でしょう。

最初に初期化でストリームからオーディオ情報を取得します

// Retrieve stream information
    if(av_find_stream_info(pFormatCtx)<0)
        return ; // Couldn't find stream information

    // Find the first video stream
    videoStream=-1;
    for(int i=0; i<pFormatCtx->nb_streams; i++) {
        if(pFormatCtx->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO)
        {
            videoStream=i;
                   }

        if(pFormatCtx->streams[i]->codec->codec_type==AVMEDIA_TYPE_AUDIO)
        {
            audioStream=i;
            NSLog(@"found audio stream");
        }

    }


Then later in your processing loop do something like this.

 while(!frameFinished && av_read_frame(pFormatCtx, &packet)>=0) {
        // Is this a packet from the video stream?
        if(packet.stream_index==videoStream) {
            // Decode video frame
              //do something with the video.

        }
         if(packet.stream_index==audioStream) {
            // NSLog(@"audio stream");

             //do something with the audio packet, here we simply add it to a processing
             queue to be handled by another thread.

             [audioPacketQueueLock lock];
             audioPacketQueueSize += packet.size;
             [audioPacketQueue addObject:[NSMutableData dataWithBytes:&packet length:sizeof(packet)]];
             [audioPacketQueueLock unlock];

オーディオを再生するには、いくつかの例についてこれを見ることができます

https://github.com/mooncatventures-group/FFPlayer-beta1/blob/master/FFAVFrames-test/AudioController.m

于 2012-10-22T13:23:54.090 に答える