19

SDK サンプル パックにあるCUDA ビデオ エンコーダー(NVCUVENC) エンコーディング サンプルを変更して、データが外部 yuv ファイルからではなく (サンプルで行われているように)、テクスチャから埋められた cudaArray から取得されるようにします。

したがって、フレームをエンコードする主要な API メソッドは次のとおりです。

int NVENCAPI NVEncodeFrame(NVEncoder hNVEncoder, NVVE_EncodeFrameParams *pFrmIn, unsigned long flag, void *pData); 

私がそれを正しく取得した場合、param:

CUdeviceptr dptr_VideoFrame

エンコードするデータを渡すことになっています。しかし、GPU 上のテクスチャ データと接続する方法が本当にわかりませんでした。サンプル ソース コードは、CPU yuv ファイル入力で動作するため、非常にあいまいです。

たとえば、 main.cpp の 555 ~ 560 行目に次のブロックがあります。

    // If dptrVideoFrame is NULL, then we assume that frames come from system memory, otherwise it comes from GPU memory
    // VideoEncoder.cpp, EncodeFrame() will automatically copy it to GPU Device memory, if GPU device input is specified
    if (pCudaEncoder->EncodeFrame(efparams, dptrVideoFrame, cuCtxLock) == false)
    {
        printf("\nEncodeFrame() failed to encode frame\n");
    }

したがって、コメントから、フレームをエンコードするためにデバイスからの yuv データでdptrVideoFrameを埋める必要があるようです。しかし、その方法が説明されている場所はありません。

アップデート:

いくつかの調査結果を共有したいと思います。まず、フレーム バッファ テクスチャからデータをエンコードすることができました。問題は、出力ビデオが混乱していることです。 ここに画像の説明を入力

これが望ましい結果です。

ここに画像の説明を入力

これが私がすることです:

OpenGL 側では、2 つのカスタム FBO があります。最初にシーンを通常どおりにレンダリングします。次に、最初の FBO のテクスチャを使用して、画面クワッドを 2 番目の FBO にレンダリングし、フラグメント シェーダーで RGB -> YUV 変換を行います。

2 番目の FBO にアタッチされたテクスチャは、次に CUDA リソースにマッピングされます。次に、現在のテクスチャを次のようにエンコードします。

void CUDAEncoder::Encode(){
    NVVE_EncodeFrameParams      efparams;
    efparams.Height           = sEncoderParams.iOutputSize[1];
    efparams.Width            = sEncoderParams.iOutputSize[0];
    efparams.Pitch            = (sEncoderParams.nDeviceMemPitch ? sEncoderParams.nDeviceMemPitch : sEncoderParams.iOutputSize[0]);
    efparams.PictureStruc     = (NVVE_PicStruct)sEncoderParams.iPictureType;
    efparams.SurfFmt          = (NVVE_SurfaceFormat)sEncoderParams.iSurfaceFormat;
    efparams.progressiveFrame = (sEncoderParams.iSurfaceFormat == 3) ? 1 : 0;
    efparams.repeatFirstField = 0;
    efparams.topfieldfirst    = (sEncoderParams.iSurfaceFormat == 1) ? 1 : 0;


    if(_curFrame > _framesTotal){
        efparams.bLast=1;
    }else{
        efparams.bLast=0;
    }

    //----------- get cuda array from the texture resource  -------------//

    checkCudaErrorsDrv(cuGraphicsMapResources(1,&_cutexResource,NULL));
      checkCudaErrorsDrv(cuGraphicsSubResourceGetMappedArray(&_cutexArray,_cutexResource,0,0));
    /////////// copy data into dptrvideo frame //////////


    // LUMA  based on CUDA SDK sample//////////////
    CUDA_MEMCPY2D pcopy;
    memset((void *)&pcopy, 0, sizeof(pcopy));
    pcopy.srcXInBytes          = 0;
    pcopy.srcY                 = 0;
    pcopy.srcHost=            NULL;
    pcopy.srcDevice=           0;
    pcopy.srcPitch             =efparams.Width;
    pcopy.srcArray=          _cutexArray;///SOME DEVICE ARRAY!!!!!!!!!!!!! <--------- to figure out how to fill this.

    /// destination  //////
    pcopy.dstXInBytes          = 0;
    pcopy.dstY                 = 0;
    pcopy.dstHost              = 0;
    pcopy.dstArray             = 0;
    pcopy.dstDevice=dptrVideoFrame;
    pcopy.dstPitch  = sEncoderParams.nDeviceMemPitch;

    pcopy.WidthInBytes   = sEncoderParams.iInputSize[0];
    pcopy.Height         = sEncoderParams.iInputSize[1];

    pcopy.srcMemoryType=CU_MEMORYTYPE_ARRAY;
    pcopy.dstMemoryType=CU_MEMORYTYPE_DEVICE;

    // CHROMA   based on CUDA SDK sample/////

    CUDA_MEMCPY2D pcChroma;
    memset((void *)&pcChroma, 0, sizeof(pcChroma));
    pcChroma.srcXInBytes        = 0;
    pcChroma.srcY               = 0;// if I uncomment this line I get error from cuda for incorrect value.It does work in CUDA SDK original sample SAMPLE//sEncoderParams.iInputSize[1] << 1; // U/V chroma offset
    pcChroma.srcHost            = NULL;
    pcChroma.srcDevice          = 0;
    pcChroma.srcArray           = _cutexArray;
    pcChroma.srcPitch           = efparams.Width >> 1; // chroma is subsampled by 2 (but it has U/V are next to each other)

    pcChroma.dstXInBytes        = 0;
    pcChroma.dstY               = sEncoderParams.iInputSize[1] << 1; // chroma offset (srcY*srcPitch now points to the chroma planes)

    pcChroma.dstHost            = 0;
    pcChroma.dstDevice          = dptrVideoFrame;
    pcChroma.dstArray           = 0;
    pcChroma.dstPitch           = sEncoderParams.nDeviceMemPitch >> 1;

    pcChroma.WidthInBytes       = sEncoderParams.iInputSize[0] >> 1;
    pcChroma.Height             = sEncoderParams.iInputSize[1]; // U/V are sent together

    pcChroma.srcMemoryType      = CU_MEMORYTYPE_ARRAY;
    pcChroma.dstMemoryType      = CU_MEMORYTYPE_DEVICE;

    checkCudaErrorsDrv(cuvidCtxLock(cuCtxLock, 0));

    checkCudaErrorsDrv( cuMemcpy2D(&pcopy));
    checkCudaErrorsDrv( cuMemcpy2D(&pcChroma));
    checkCudaErrorsDrv(cuvidCtxUnlock(cuCtxLock, 0));
    //=============================================

    // If dptrVideoFrame is NULL, then we assume that frames come from system memory, otherwise it comes from GPU memory
    // VideoEncoder.cpp, EncodeFrame() will automatically copy it to GPU Device memory, if GPU device input is specified
    if (_encoder->EncodeFrame(efparams, dptrVideoFrame, cuCtxLock) == false)
    {
        printf("\nEncodeFrame() failed to encode frame\n");
    }
    checkCudaErrorsDrv(cuGraphicsUnmapResources(1, &_cutexResource, NULL));
    //  computeFPS();

    if(_curFrame > _framesTotal){
        _encoder->Stop();
        exit(0);
    }
    _curFrame++;

}

CUDA SDK Encoder サンプルに含まれている .cfg ファイルから Encoder パラメータを設定しました。ここでは 704x480-h264.cfg セットアップを使用します。

CUDA_MEMCPY2D のルミナンス オブジェクトとクロマ オブジェクトのパラメーター セットアップのどこかに問題があると思われます。問題がどこにあるのかわかりませんでした。誰 ?

4

2 に答える 2

1

nvEncoder アプリケーションはコーデック変換に使用され、GPU を介した処理には cuda を使用し、ハードウェアとの通信には nvEncoder の API を使用します。このアプリケーション ロジックでは、yuv データが入力バッファーに読み込まれ、そのコンテンツがメモリに格納されてから、フレームのエンコードが開始されます。並列にエンコード フレームを出力ファイルに書き込みます。

入力バッファの処理は nvRead 関数で利用でき、nvFileIO.h で利用できます

その他のヘルプが必要な場合は、ここにメッセージを残してください...

于 2015-02-23T09:36:07.297 に答える