3

GLSurfaceView を使用して Android 用のアプリケーションを開発しています。ある瞬間、GLSurfaceView をその瞬間の画像に置き換える必要があります。問題は、画像を正しく取得する方法です。私はこのコードを使用しました:

    v.setDrawingCacheEnabled(true);
    v.measure(View.MeasureSpec.makeMeasureSpec(500, View.MeasureSpec.AT_MOST),
            View.MeasureSpec.makeMeasureSpec(500, View.MeasureSpec.AT_MOST));
    v.layout(0, 0, v.getMeasuredWidth(), v.getMeasuredHeight());

    v.buildDrawingCache(true);
    Bitmap b = Bitmap.createBitmap(v.getDrawingCache());
    v.setDrawingCacheEnabled(false); // clear drawing cache
    return b;

ただし、常に黒のビットマップを返します。

Bitmap (GLSurfaceView にも配置できる) 以外のものを作成できるのではないでしょうか?

4

2 に答える 2

2

でこのように機能するとは思わないGLSurfaceView。フレームバッファは、CPU で直接アクセスできない GPU 内に存在する場合があります。

フレームバッファ オブジェクトを使用して画像をテクスチャにレンダリングし、 を使用glReadPixelsしてデータをバッファにダウンロードし、バッファをBitmap.

于 2012-12-26T17:19:37.410 に答える
0

GLSurfaceView をビットマップに保存します。その動作は正しいです。

MyRenderer Class :

@Override
public void onDrawFrame(GL10 gl) {


try {
    int w = width_surface ;
    int h = height_surface  ;

    Log.i("hari", "w:"+w+"-----h:"+h);

    int b[]=new int[(int) (w*h)];
    int bt[]=new int[(int) (w*h)];
    IntBuffer buffer=IntBuffer.wrap(b);
    buffer.position(0);
    GLES20.glReadPixels(0, 0, w, h,GLES20.GL_RGBA,GLES20.GL_UNSIGNED_BYTE, buffer);
    for(int i=0; i<h; i++)
    {
         //remember, that OpenGL bitmap is incompatible with Android bitmap
         //and so, some correction need.        
         for(int j=0; j<w; j++)
         {
              int pix=b[i*w+j];
              int pb=(pix>>16)&0xff;
              int pr=(pix<<16)&0x00ff0000;
              int pix1=(pix&0xff00ff00) | pr | pb;
              bt[(h-i-1)*w+j]=pix1;
         }
    }           
    Bitmap inBitmap = null ;
    if (inBitmap == null || !inBitmap.isMutable()
         || inBitmap.getWidth() != w || inBitmap.getHeight() != h) {
        inBitmap = Bitmap.createBitmap(w, h, Bitmap.Config.ARGB_8888);
    }
    //Bitmap.createBitmap(w, h, Bitmap.Config.ARGB_8888);
    inBitmap.copyPixelsFromBuffer(buffer);
    //return inBitmap ;
    // return Bitmap.createBitmap(bt, w, h, Bitmap.Config.ARGB_8888);
    inBitmap = Bitmap.createBitmap(bt, w, h, Bitmap.Config.ARGB_8888);

    ByteArrayOutputStream bos = new ByteArrayOutputStream(); 
    inBitmap.compress(CompressFormat.JPEG, 90, bos); 
    byte[] bitmapdata = bos.toByteArray();
    ByteArrayInputStream fis = new ByteArrayInputStream(bitmapdata);

    final Calendar c=Calendar.getInstance();
     long mytimestamp=c.getTimeInMillis();
    String timeStamp=String.valueOf(mytimestamp);
    String myfile="hari"+timeStamp+".jpeg";

    dir_image=new File(Environment.getExternalStorageDirectory()+File.separator+
             "printerscreenshots"+File.separator+"image");
    dir_image.mkdirs();

    try {
        File tmpFile = new File(dir_image,myfile); 
        FileOutputStream fos = new FileOutputStream(tmpFile);

        byte[] buf = new byte[1024];
        int len;
        while ((len = fis.read(buf)) > 0) {
            fos.write(buf, 0, len);
        }
        fis.close();
        fos.close();
    } catch (FileNotFoundException e) {
        e.printStackTrace();
    } catch (IOException e) {
        e.printStackTrace();
    }

       Log.v("hari", "screenshots:"+dir_image.toString());

    }
}catch(Exception e) {
    e.printStackTrace() ;
}
于 2013-07-18T07:07:53.507 に答える