14

私の問題は次のとおりです。Androidでカメラをセットアップし、onPreviewFrame-listenerを使用してプレビューデータを受信します。このリスナーは、デフォルトのAndroidYUV形式の画像データを含むbyte[]配列を渡します(デバイスはR5G6B5-をサポートしていません)。フォーマット)。各ピクセルは12ビットで構成されているため、少し注意が必要です。今私がやりたいのは、YUVデータをARGBデータに変換して画像処理を行うことです。これは、高いパフォーマンスを維持するために、renderscriptを使用して実行する必要があります。

私のアイデアは、1つの要素に2つのピクセル(24ビット= 3バイト)を渡してから、2つのARGBピクセルを返すことでした。問題は、Renderscriptではu8_3(3次元8ビットベクトル)が32ビットに格納されていることです。これは、最後の8ビットが未使用であることを意味します。ただし、イメージデータを割り当てにコピーすると、32ビットがすべて使用されるため、最後の8ビットが失われます。32ビットの入力データを使用したとしても、最後の8ビットはピクセルの2/3しかないため、役に立ちません。3バイト配列で構成される要素を定義する場合、実際のサイズは3バイトです。しかし、Allocation.copyFrom()メソッドはin-Allocationをデータで埋めず、byte[]で埋めるのに適切なデータ型を持っていないと主張します。

renderscriptのドキュメントには、APIレベル17で正確に実行する必要があるScriptIntrinsicYuvToRGBがあると記載されていますが、実際にはクラスは存在しません。APIレベル17はダウンロードできなくなったようですが、ダウンロードしました。誰かがそれについて何か情報を持っていますか?ScriptIntrinsicを試したことがある人はいますか?

結論として、私の質問は次のとおりです。カメラデータをARGBデータに高速に変換し、ハードウェアで高速化する方法は?

これがDalvikVMでそれを行う方法です(オンラインのどこかでコードが見つかりました、それは機能します):

@SuppressWarnings("unused")
private void decodeYUV420SP(int[] rgb, byte[] yuv420sp, int width, int height) {  
    final int frameSize = width * height;  
    for (int j = 0, yp = 0; j < height; j++) {
        int uvp = frameSize + (j >> 1) * width, u = 0, v = 0;  
        for (int i = 0; i < width; i++, yp++) {  
            int y = (0xff & ((int) yuv420sp[yp])) - 16;  
            if (y < 0)
                y = 0;  
            if ((i & 1) == 0) {  
                v = (0xff & yuv420sp[uvp++]) - 128;  
                u = (0xff & yuv420sp[uvp++]) - 128;  
            }  
            int y1192 = 1192 * y;  
            int r = (y1192 + 1634 * v);  
            int g = (y1192 - 833 * v - 400 * u);  
            int b = (y1192 + 2066 * u);  
            if (r < 0)
                r = 0;
            else if (r > 262143)
                r = 262143;  
            if (g < 0)
                g = 0;
            else if (g > 262143)
                g = 262143;  
            if (b < 0)
                b = 0;
            else if (b > 262143)  
                b = 262143;  
            rgb[yp] = 0xff000000 | ((r << 6) & 0xff0000) | ((g >> 2) & 0xff00) | ((b >> 10) & 0xff);  
        }
    }
}
4

3 に答える 3

12

LivePreviewテストアプリケーションはおもしろいと思います...これは最新のJellyBean(MR1)のAndroidソースコードの一部です。カメラプレビューを実装し、ScriptIntrinsicYuvToRgbを使用してプレビューデータをRenderscriptで変換します。ここからオンラインでソースを閲覧できます。

ライブプレビュー

于 2012-11-23T10:54:49.170 に答える
5

ScriptInstrinsicYuvToRgb を実行できなかったため、独自の RS ソリューションを作成することにしました。

準備が整ったスクリプト (名前はyuv.rs ) は次のとおりです。

#pragma version(1) 
#pragma rs java_package_name(com.package.name)

rs_allocation gIn;

int width;
int height;
int frameSize;

void yuvToRgb(const uchar *v_in, uchar4 *v_out, const void *usrData, uint32_t x, uint32_t y) {

    uchar yp = rsGetElementAtYuv_uchar_Y(gIn, x, y) & 0xFF;

    int index = frameSize + (x & (~1)) + (( y>>1) * width );
    int v = (int)( rsGetElementAt_uchar(gIn, index) & 0xFF ) -128;
    int u = (int)( rsGetElementAt_uchar(gIn, index+1) & 0xFF ) -128;

    int r = (int) (1.164f * yp  + 1.596f * v );
    int g = (int) (1.164f * yp  - 0.813f * v  - 0.391f * u);
    int b = (int) (1.164f * yp  + 2.018f * u );

    r = r>255? 255 : r<0 ? 0 : r;
    g = g>255? 255 : g<0 ? 0 : g;
    b = b>255? 255 : b<0 ? 0 : b;

    uchar4 res4;
    res4.r = (uchar)r;
    res4.g = (uchar)g;
    res4.b = (uchar)b;
    res4.a = 0xFF;

    *v_out = res4;
}

カメラのプレビュー形式を NV21 に設定することを忘れないでください。

Parameters cameraParameters = camera.getParameters();
cameraParameters.setPreviewFormat(ImageFormat.NV21);
// Other camera init stuff: preview size, framerate, etc.
camera.setParameters(cameraParameters);

割り当ての初期化とスクリプトの使用:

// Somewhere in initialization section 
// w and h are variables for selected camera preview size
rs = RenderScript.create(this); 

Type.Builder tbIn = new Type.Builder(rs, Element.U8(rs));
tbIn.setX(w);
tbIn.setY(h);
tbIn.setYuvFormat(ImageFormat.NV21);

Type.Builder tbOut = new Type.Builder(rs, Element.RGBA_8888(rs));
tbOut.setX(w); 
tbOut.setY(h);

inData = Allocation.createTyped(rs, tbIn.create(), Allocation.MipmapControl.MIPMAP_NONE,  Allocation.USAGE_SCRIPT & Allocation.USAGE_SHARED);
outData = Allocation.createTyped(rs, tbOut.create(), Allocation.MipmapControl.MIPMAP_NONE,  Allocation.USAGE_SCRIPT & Allocation.USAGE_SHARED);

outputBitmap = Bitmap.createBitmap(w, h, Bitmap.Config.ARGB_8888);


yuvScript = new ScriptC_yuv(rs); 
yuvScript.set_gIn(inData);
yuvScript.set_width(w);
yuvScript.set_height(h);
yuvScript.set_frameSize(previewSize);
//.....

カメラのコールバック メソッド:

public void onPreviewFrame(byte[] data, Camera camera) {
    // In your camera callback, data 
    inData.copyFrom(data);
    yuvScript.forEach_yuvToRgb(inData, outData);
    outData.copyTo(outputBitmap);
    // draw your bitmap where you want to 
    // .....
}
于 2013-12-26T16:48:19.323 に答える
2

ご存じない方のために説明すると、RenderScript は現在、組み込み関数を含む Android サポート ライブラリにあります。

http://android-developers.blogspot.com.au/2013/09/renderscript-in-android-support-library.html

http://android-developers.blogspot.com.au/2013/08/renderscript-intrinsics.html

于 2013-11-04T23:28:10.747 に答える