18

PIL v1.1.7で使用されるアルゴリズムは、「色あせた」外観の結果を提供します。それを使用して同じソースデータを変換する場合、ffmpeg正しく見えます。を使用mplayerすると、と同じ結果が得られますffmpeg(おそらく、下にある同じライブラリを使用します)。これは、PILが色空間変換を詰め込んでいる可能性があると私に信じさせます。変換は次のソースで行われているようですlibImaging/ConvertYCbCr.c

/*  JPEG/JFIF YCbCr conversions

    Y  = R *  0.29900 + G *  0.58700 + B *  0.11400
    Cb = R * -0.16874 + G * -0.33126 + B *  0.50000 + 128
    Cr = R *  0.50000 + G * -0.41869 + B * -0.08131 + 128

    R  = Y +                       + (Cr - 128) *  1.40200
    G  = Y + (Cb - 128) * -0.34414 + (Cr - 128) * -0.71414
    B  = Y + (Cb - 128) *  1.77200

*/

これはソース内の単なるコメントです。もちろん、これはCコードであり、実際の関数は、行列の乗算ではなくルックアップテーブルを使用して実装されます(static INT16 R_Cr簡潔にするために切り取ったものなど)。

void
ImagingConvertYCbCr2RGB(UINT8* out, const UINT8* in, int pixels)
{
    int x;
    UINT8 a;
    int r, g, b;
    int y, cr, cb;

    for (x = 0; x < pixels; x++, in += 4, out += 4) {

        y = in[0];
        cb = in[1];
        cr = in[2];
        a = in[3];

        r = y + ((           R_Cr[cr]) >> SCALE);
        g = y + ((G_Cb[cb] + G_Cr[cr]) >> SCALE);
        b = y + ((B_Cb[cb]           ) >> SCALE);

        out[0] = (r <= 0) ? 0 : (r >= 255) ? 255 : r;
        out[1] = (g <= 0) ? 0 : (g >= 255) ? 255 : g;
        out[2] = (b <= 0) ? 0 : (b >= 255) ? 255 : b;
        out[3] = a;
    }
}

私はグーグルで検索しましたが、この色空間変換を行うための「正しい」方法については多くの混乱があるようです。だから私の質問は、上記は正しいですか?そうでない場合は、より良い方法は何ですか?


編集: Mark Ransomが提供するリンクを読んだ後、YCbCrの全範囲を使用するか、有効な範囲にクランプアウトするかによって、矛盾する定義が存在することを発見しました。詳細については、以下のリンクを参照してください。

PILバージョンが誤ったアルゴリズムを使用しているように見えるので、正しい外観の結果をもたらす変換のために独自の関数をロールしました(「SDTV」バージョン)。将来の読者が使用できるように、以下に含まれるコード:

from numpy import dot, ndarray, array


A_SDTV = array([[1.,                 0.,  0.701            ],
                [1., -0.886*0.114/0.587, -0.701*0.299/0.587],
                [1.,  0.886,                             0.]])
A_SDTV[:,0]  *= 255./219.
A_SDTV[:,1:] *= 255./112.

A_HDTV = array([[1.164,     0.,  1.793],
                [1.164, -0.213, -0.533],
                [1.164,  2.112,     0.]])


def yuv2rgb(im, version='SDTV'):
    """
    Convert array-like YUV image to RGB colourspace

    version:
      - 'SDTV':  ITU-R BT.601 version  (default)
      - 'HDTV':  ITU-R BT.709 version
    """
    if not im.dtype == 'uint8':
        raise TypeError('yuv2rgb only implemented for uint8 arrays')

    # clip input to the valid range
    yuv = ndarray(im.shape)  # float64
    yuv[:,:, 0] = im[:,:, 0].clip(16, 235).astype(yuv.dtype) - 16
    yuv[:,:,1:] = im[:,:,1:].clip(16, 240).astype(yuv.dtype) - 128

    if version.upper() == 'SDTV':
        A = A_SDTV
    elif version.upper() == 'HDTV':
        A = A_HDTV
    else:
        raise Exception("Unrecognised version (choose 'SDTV' or 'HDTV')")

    rgb = dot(yuv, A.T)
    result = rgb.clip(0, 255).astype('uint8')

    return result
4

1 に答える 1

9

ウィキペディアの定義を見ると、YCbCrには2つの矛盾する定義があることがわかります。ITU-R BT.601定義は、値を16〜235の範囲に圧縮してフットルームとヘッドルームを提供しますが、JPEGバージョンは0〜255の全範囲を使用します。JPEGの式を使用してBT.601空間の値をデコードすると、結果は間違いなく色あせて見えます。

于 2011-08-12T15:54:54.793 に答える