AndroidビットマップをNV12形式に変換するためのコードを書いています。
AndroidビットマップからNV21を提供するコードを見つけましたが、コードが機能しているようです。(ビットマップ配列を YUV (YCbCr NV21) に変換)
私が見つけた唯一の違いは、参照に従ってNV12とNV21の間でUとVのバイトを切り替えることです。( http://www.fourcc.org/yuv.php )
そこで、UとVの位置を元のコードから変更すると、結果は次のようになります。
byte [] getNV12(int inputWidth, int inputHeight, Bitmap scaled) {
// Reference (Variation) : https://gist.github.com/wobbals/5725412
int [] argb = new int[inputWidth * inputHeight];
//Log.i(TAG, "scaled : " + scaled);
scaled.getPixels(argb, 0, inputWidth, 0, 0, inputWidth, inputHeight);
byte [] yuv = new byte[inputWidth*inputHeight*3/2];
encodeYUV420SP(yuv, argb, inputWidth, inputHeight);
scaled.recycle();
return yuv;
}
void encodeYUV420SP(byte[] yuv420sp, int[] argb, int width, int height) {
final int frameSize = width * height;
int yIndex = 0;
int uvIndex = frameSize;
int a, R, G, B, Y, U, V;
int index = 0;
for (int j = 0; j < height; j++) {
for (int i = 0; i < width; i++) {
a = (argb[index] & 0xff000000) >> 24; // a is not used obviously
R = (argb[index] & 0xff0000) >> 16;
G = (argb[index] & 0xff00) >> 8;
B = (argb[index] & 0xff) >> 0;
// well known RGB to YUV algorithm
Y = ( ( 66 * R + 129 * G + 25 * B + 128) >> 8) + 16;
V = ( ( -38 * R - 74 * G + 112 * B + 128) >> 8) + 128; // Previously U
U = ( ( 112 * R - 94 * G - 18 * B + 128) >> 8) + 128; // Previously V
yuv420sp[yIndex++] = (byte) ((Y < 0) ? 0 : ((Y > 255) ? 255 : Y));
if (j % 2 == 0 && index % 2 == 0) {
yuv420sp[uvIndex++] = (byte)((V<0) ? 0 : ((V > 255) ? 255 : V));
yuv420sp[uvIndex++] = (byte)((U<0) ? 0 : ((U > 255) ? 255 : U));
}
index ++;
}
}
}
画像の変換が間違っていますか?(エンコーダーに問題はないと確信しています。)
壊れた画像のスクリーンショット: https://www.dropbox.com/s/vho14831fgnh1kl/Thu%20Aug%2001%2008_56_14%20GMT%2B09_00%202013%20%281%29.mp4_000002000.jpg