3

ネイティブ関数を使用して、OpenCV+Androidを使用したい。ただし、ビットマップをパラメーターとして使用する方法と、編集したビットマップ(またはマット)の値を返す方法については少し混乱しています。

たとえば、ネイティブ関数があります。

#include <jni.h>
#include <opencv2/core/core.hpp>
#include <opencv2/imgproc/imgproc.hpp>


JNIEXPORT ??? JNICALL Java_com_my_package_name_and_javaclass_myFunction(JNIEnv* env, jobject javaThis, cv::Mat mat1){
    //here will be code to perform filtering, blurring, canny edge detection or similar things.
        //so I want to input a bitmap, edit it and send it back to the Android class.

return ???
    }

したがって、ここではcv::Matをパラメーターとして使用しています。私はこれが間違っていることを知っていますが、それがどうあるべきか、そして対応するjavaクラスに何があるべきかがわかりません。ByteArrayにする必要がありますか?そして、上記のネイティブ関数では、パラメーターはjByteArray(または同様のもの)になりますか?

そして、returnオブジェクトについては、何を置く必要がありますか?これは配列である必要がありますか?

基本的に私が探しているのは、JavaクラスにあるMat(またはビットマップ)です。これをネイティブ関数に送信して編集し、適切に編集されたビットマップを返します。

4

2 に答える 2

8

これはAndroid用のOpenCVチュートリアルコードです。JNIの規則を理解するのに時間がかかったことを覚えています。最初にJNIコードを調べてください

#include <jni.h>
#include <opencv2/core/core.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <opencv2/features2d/features2d.hpp>
#include <vector>

using namespace std;
using namespace cv;

extern "C" {
JNIEXPORT void JNICALL Java_org_opencv_samples_tutorial3_Sample3View_FindFeatures(JNIEnv* env, jobject thiz, jint width, jint height, jbyteArray yuv, jintArray bgra)
{
    jbyte* _yuv  = env->GetByteArrayElements(yuv, 0);
    jint*  _bgra = env->GetIntArrayElements(bgra, 0);

    Mat myuv(height + height/2, width, CV_8UC1, (unsigned char *)_yuv);
    Mat mbgra(height, width, CV_8UC4, (unsigned char *)_bgra);
    Mat mgray(height, width, CV_8UC1, (unsigned char *)_yuv);

    //Please make attention about BGRA byte order
    //ARGB stored in java as int array becomes BGRA at native level
    cvtColor(myuv, mbgra, CV_YUV420sp2BGR, 4);

    vector<KeyPoint> v;

    FastFeatureDetector detector(50);
    detector.detect(mgray, v);
    for( size_t i = 0; i < v.size(); i++ )
        circle(mbgra, Point(v[i].pt.x, v[i].pt.y), 10, Scalar(0,0,255,255));

    env->ReleaseIntArrayElements(bgra, _bgra, 0);
    env->ReleaseByteArrayElements(yuv, _yuv, 0);
}
}

次にJavaコード

package org.opencv.samples.tutorial3;

import android.content.Context;
import android.graphics.Bitmap;

class Sample3View extends SampleViewBase {

    public Sample3View(Context context) {
        super(context);
    }

    @Override
    protected Bitmap processFrame(byte[] data) {
        int frameSize = getFrameWidth() * getFrameHeight();
        int[] rgba = new int[frameSize];

        FindFeatures(getFrameWidth(), getFrameHeight(), data, rgba);

        Bitmap bmp = Bitmap.createBitmap(getFrameWidth(), getFrameHeight(), Bitmap.Config.ARGB_8888);
        bmp.setPixels(rgba, 0/* offset */, getFrameWidth() /* stride */, 0, 0, getFrameWidth(), getFrameHeight());
        return bmp;
    }

    public native void FindFeatures(int width, int height, byte yuv[], int[] rgba);

    static {
        System.loadLibrary("native_sample");
    }
}
于 2012-10-02T23:19:41.237 に答える
3

Androidサンプル(ネイティブ)のデフォルトのOpenCVを読むことをお勧めします。

もちろん、cv::Matこれはjavaではなくc ++クラスであるため、パラメータとして使用することはできません。ただし、私が間違っていない場合は、Javaソースからc ++クラスメソッドを呼び出すことができます(これもJNIの一部です)。

あなたの状況では、画像データへのポインタを使用する必要があります(C ++の場合もあればuchar*、Javaの場合int*も同じです)。たとえば、メソッドgetPixelsを使用してAndroidビットマップからピクセルを取得できます。また、C ++では、画像データへのポインターを受け取る特定のマットコンストラクターを使用できます。byte[]int[]

// constructor for matrix headers pointing to user-allocated data
Mat(int _rows, int _cols, int _type, void* _data, size_t _step=AUTO_STEP);
Mat(Size _size, int _type, void* _data, size_t _step=AUTO_STEP);

それが役に立てば幸い。

于 2012-10-02T18:15:30.510 に答える