1

私は、サンプルの生のYUVファイルを取得してCocoaOpenGLプログラムに表示するプログラムを作成するタスクを割り当てられました。

私は自分の仕事のインターンであり、どのように始めればよいのかほとんど、あるいはまったくわかりません。YUVに関するウィキペディアと記事を読んでいますが、生のYUVファイルを開き、データを抽出してRGBに変換し、ビューウィンドウに表示する方法に関する適切なソースコードが見つかりませんでした。

基本的に、タスクの次の側面について支援が必要です-サンプルYUVファイルからYUVデータを抽出する方法-YUVデータをRGB色空間に変換する方法-OpenGLでRGB色空間を表示する方法。(これは時間の経過とともに理解できると思いますが、最初の2つのポイントについては本当に助けが必要です)

使用するクラスを教えてください。または、YUVグラフィック/ビデオディスプレイについて学ぶことができる場所を教えてください。

4

3 に答える 3

8

CCDカメラからキャプチャしたYUVフレームでこれを行いました。残念ながら、さまざまな YUV 形式が多数あります。Apple がGL_YCBCR_422_APPLEテクスチャ フォーマットに使用しているものは、技術的には 2VUY422 だと思います。IIDC Firewire カメラによって生成された YUV422 フレームからの画像を 2VUY422 に変換するために、以下を使用しました。

void yuv422_2vuy422(const unsigned char *theYUVFrame, unsigned char *the422Frame, const unsigned int width, const unsigned int height) 
{
    int i =0, j=0;
    unsigned int numPixels = width * height;
    unsigned int totalNumberOfPasses = numPixels * 2;
    register unsigned int y0, y1, y2, y3, u0, u2, v0, v2;

    while (i < (totalNumberOfPasses) )
    {
        u0 = theYUVFrame[i++]-128;
        y0 = theYUVFrame[i++];
        v0 = theYUVFrame[i++]-128;
        y1 = theYUVFrame[i++];
        u2 = theYUVFrame[i++]-128;
        y2 = theYUVFrame[i++];
        v2 = theYUVFrame[i++]-128;
        y3 = theYUVFrame[i++];

        // U0 Y0 V0 Y1 U2 Y2 V2 Y3

        // Remap the values to 2VUY (YUYS?) (Y422) colorspace for OpenGL
        // Y0 U Y1 V Y2 U Y3 V

        // IIDC cameras are full-range y=[0..255], u,v=[-127..+127], where display is "video range" (y=[16..240], u,v=[16..236])

        the422Frame[j++] = ((y0 * 240) / 255 + 16);
        the422Frame[j++] = ((u0 * 236) / 255 + 128);
        the422Frame[j++] = ((y1 * 240) / 255 + 16);
        the422Frame[j++] = ((v0 * 236) / 255 + 128);
        the422Frame[j++] = ((y2 * 240) / 255 + 16);
        the422Frame[j++] = ((u2 * 236) / 255 + 128);
        the422Frame[j++] = ((y3 * 240) / 255 + 16);
        the422Frame[j++] = ((v2 * 236) / 255 + 128);
    }
}

YUV ビデオ ソースを効率的に表示するには、Apple の client storage extensionを使用することをお勧めします。これは、次のようなものを使用して設定できます。

glEnable(GL_TEXTURE_RECTANGLE_EXT);
glBindTexture(GL_TEXTURE_RECTANGLE_EXT, 1);

glTextureRangeAPPLE(GL_TEXTURE_RECTANGLE_EXT, videoImageWidth * videoImageHeight * 2, videoTexture);
glTexParameteri(GL_TEXTURE_RECTANGLE_EXT, GL_TEXTURE_STORAGE_HINT_APPLE , GL_STORAGE_SHARED_APPLE);
glPixelStorei(GL_UNPACK_CLIENT_STORAGE_APPLE, GL_TRUE);

glTexParameteri(GL_TEXTURE_RECTANGLE_EXT, GL_TEXTURE_MIN_FILTER, GL_NEAREST);
glTexParameteri(GL_TEXTURE_RECTANGLE_EXT, GL_TEXTURE_MAG_FILTER, GL_NEAREST);
glTexParameteri(GL_TEXTURE_RECTANGLE_EXT, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);
glTexParameteri(GL_TEXTURE_RECTANGLE_EXT, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);
glPixelStorei(GL_UNPACK_ROW_LENGTH, 0);

glTexImage2D(GL_TEXTURE_RECTANGLE_EXT, 0, GL_RGBA, videoImageWidth, videoImageHeight, 0, GL_YCBCR_422_APPLE, GL_UNSIGNED_SHORT_8_8_REV_APPLE, videoTexture);    

これにより、各フレームが画面に表示される前に、クライアント側のビデオ テクスチャ内に保存されているデータをすばやく変更できます。

描画するには、次のようなコードを使用できます。

glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT);         
glEnable(GL_TEXTURE_2D);

glViewport(0, 0, [self frame].size.width, [self frame].size.height);

glMatrixMode(GL_PROJECTION);
glLoadIdentity();
NSRect bounds = NSRectFromCGRect([self bounds]);
glOrtho( (GLfloat)NSMinX(bounds), (GLfloat)NSMaxX(bounds), (GLfloat)NSMinY(bounds), (GLfloat)NSMaxY(bounds), -1.0, 1.0);

glBindTexture(GL_TEXTURE_RECTANGLE_EXT, 1);
glTexSubImage2D (GL_TEXTURE_RECTANGLE_EXT, 0, 0, 0, videoImageWidth, videoImageHeight, GL_YCBCR_422_APPLE, GL_UNSIGNED_SHORT_8_8_REV_APPLE, videoTexture);

glMatrixMode(GL_TEXTURE);
glLoadIdentity();

glBegin(GL_QUADS);
    glTexCoord2f(0.0f, 0.0f);
    glVertex2f(0.0f, videoImageHeight);

    glTexCoord2f(0.0f, videoImageHeight);
    glVertex2f(0.0f, 0.0f);

    glTexCoord2f(videoImageWidth, videoImageHeight);
    glVertex2f(videoImageWidth, 0.0f);

    glTexCoord2f(videoImageWidth, 0.0f);
    glVertex2f(videoImageWidth, videoImageHeight);      
glEnd();
于 2009-07-06T15:27:44.833 に答える
7

Adam Rosenfield のコメントは正しくありません。Mac では、 APPLE_ycbcr_422拡張機能GL_YCBCR_422_APPLEで指定されているテクスチャ形式を使用して、YCbCr (YUV に相当するデジタル) テクスチャを表示できます。

于 2009-07-04T16:07:53.310 に答える
1

この答えは正しくありません。他の答えとコメントを参照してください。後世のために残された元の答え。


直接表示することはできません。 RGBテクスチャに変換する必要があります。ウィキペディアから集めたかもしれませんが、YUVの色空間にはたくさんのバリエーションがあります。正しいものを使用していることを確認してください。

ピクセルごとに、YUVからRGBへの変換は単純な線形変換です。各ピクセルに対して同じことを個別に行います。

画像をRGBに変換したら、テクスチャを作成して表示できます。glGenTextures()テクスチャハンドルを割り当て、テクスチャglBindTexture()をレンダリングコンテキストにバインドしglTexImage2D()、テクスチャデータをGPUにアップロードするには、を呼び出す必要があります。レンダリングするには、もう一度を呼び出してglBindTexture()から、テクスチャ座標が適切に設定されたクワッドをレンダリングします。

// parameters: image:  pointer to raw YUV input data
//             width:  image width (must be a power of 2)
//             height: image height (must be a power of 2)
// returns: a handle to the resulting RGB texture
GLuint makeTextureFromYUV(const float *image, int width, int height)
{
    float *rgbImage = (float *)malloc(width * height * 3 * sizeof(float));  // check for NULL
    float *rgbImagePtr = rgbImage;

    // convert from YUV to RGB (floats used here for simplicity; it's a little
    // trickier with 8-bit ints)
    int y, x;
    for(y = 0; y < height; y++)
    {
        for(x = 0; x < width; x++)
        {
            float Y = *image++;
            float U = *image++;
            float V = *image++;
            *rgbImagePtr++ = Y                + 1.13983f * V;  // R
            *rgbImagePtr++ = Y - 0.39465f * U - 0.58060f * V;  // G
            *rgbImagePtr++ = Y + 2.03211f * U;                 // B
        }
    }

    // create texture
    GLuint texture;
    glGenTextures(1, &texture);

    // bind texture to render context
    glBindTexture(GL_TEXTURE_2D, texture);

    // upload texture data
    glTexImage2D(GL_TEXTURE_2D, 0, 3, width, height, 0, GL_RGB, GL_FLOAT, rgbImage);

    // don't use mipmapping (since we're not creating any mipmaps); the default
    // minification filter uses mipmapping.  Use linear filtering for minification
    // and magnification.
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);

    // free data (it's now been copied onto the GPU) and return texture handle
    free(rgbImage);
    return texture;
}

レンダリングするには:

glBindTexture(GL_TEXTURE_2D, texture);

glBegin(GL_QUADS);
    glTexCoord2f(0.0f, 0.0f); glVertex3f( 0.0f,  0.0f, 0.0f);
    glTexCoord2f(1.0f, 0.0f); glVertex3f(64.0f,  0.0f, 0.0f);
    glTexCoord2f(1.0f, 1.0f); glVertex3f(64.0f, 64.0f, 0.0f);
    glTexCoord2f(0.0f, 1.0f); glVertex3f( 0.0f, 64.0f, 0.0f);
glEnd();

glEnable(GL_TEXTURE_2D)また、初期化中のある時点で呼び出しglDeleteTextures(1, &texture)、シャットダウン中に呼び出すことを忘れないでください。

于 2009-07-03T19:51:22.490 に答える