0

私はopenCVにかなり慣れていませんが、現在、Androidデバイスでオブジェクト検出を実行しようとしています。私が基本的に行うことは、アプリにカメラのプレビューを表示することです。それをクリックすると、写真がキャプチャされます。次に、この画像が runFeatureHomography メソッドに渡されます。このメソッドは、最初に取得した画像と比較する必要がある 2 番目の画像を取得します。次に、メソッドは両方の画像のキーポイントを見つけて計算し、img_matches と呼ばれる 1 つの Mat に一致させます。できる限り基本的なことだと思います。

現在ここで検出しようとしているオブジェクトは、クレジット カードのフォーマットのような、ある種のカードです。カードは青色で、白と黄色のテキストがたくさんあります。リンクを 1 つしか投稿できないため、それらの写真を表示することはできません。

理由はわかりませんが、最後に結果を表示するか、結果をビットマップとして携帯電話に保存すると、常に次のようになります。

http://oi44.tinypic.com/oaqel0.jpg <-- すべてが完了した後の結果イメージ。

これは、私が検出したかったオブジェクトが実際に検出されたことを示していますが、カードの写真ではなく黒い背景がある理由がわかりません。2 つの画像がそのままの状態で表示され、すべての線が表示されないのはなぜですか?

私のコードでは、これら3つを使用しています:

FeatureDetector detector = FeatureDetector.create(FeatureDetector.ORB);
DescriptorExtractor extractor = DescriptorExtractor.create(DescriptorExtractor.ORB);
DescriptorMatchermatcher = DescriptorMatcher.create(DescriptorMatcher.BRUTEFORCE);

これが私のコードの一部です:

private void runFeatureHomography(Bitmap image)
{

    Mat img_object = getObjectImage();
    Mat img_scene = newEmptyMat();

    Bitmap myimg = image.copy(Bitmap.Config.ARGB_8888, true);

    Utils.bitmapToMat(myimg, img_scene);

    MatOfKeyPoint keyPoints_object = detectObjectKeyPoints();
    MatOfKeyPoint keyPoints_scene = new MatOfKeyPoint();

    this.detector.detect(img_scene, keyPoints_scene);

    Mat descriptors_object = calculateObjectDescriptor();
    Mat descriptors_scene = newEmptyMat();

    this.extractor.compute(img_scene, keyPoints_scene, descriptors_scene);

    MatOfDMatch matches = new MatOfDMatch();

    matcher.match(descriptors_object, descriptors_scene, matches);

    double min_dist = Double.MAX_VALUE;
    for (int i = -1; ++i < descriptors_object.rows();)
    {
        double dist = matches.toArray()[i].distance;
        if (dist < min_dist)
        {
            min_dist = dist;
        }
    }


    List<DMatch> good_matches = new ArrayList<DMatch>();
    for (int i = -1; ++i < descriptors_object.rows();)
    {
        if (matches.toArray()[i].distance <= 3 * min_dist)
        {
            good_matches.add(matches.toArray()[i]);
        }
    }

    System.out.println("4");
    Mat img_matches = newEmptyMat();
    Features2d.drawMatches(
            img_object,
            keyPoints_object,
            img_scene,
            keyPoints_scene,
            new MatOfDMatch(good_matches.toArray(new DMatch[good_matches
                    .size()])), img_matches, Scalar.all(-1),
            Scalar.all(-1), new MatOfByte(),
            Features2d.NOT_DRAW_SINGLE_POINTS);

    List<Point> object = new ArrayList<Point>();
    List<Point> scene = new ArrayList<Point>();
    for (int i = -1; ++i < good_matches.size();)
    {
        object.add(keyPoints_object.toArray()[good_matches.get(i).queryIdx].pt);
        scene.add(keyPoints_scene.toArray()[good_matches.get(i).trainIdx].pt);
    }

    Mat H = Calib3d.findHomography(
            new MatOfPoint2f(object.toArray(new Point[object.size()])),
            new MatOfPoint2f(scene.toArray(new Point[scene.size()])),
            Calib3d.RANSAC, 3);

    Point[] object_corners = new Point[4];
    object_corners[0] = new Point(0, 0);
    object_corners[1] = new Point(img_object.cols(), 0);
    object_corners[2] = new Point(img_object.cols(), img_object.rows());
    object_corners[3] = new Point(0, img_object.rows());

    MatOfPoint2f scene_corners2f = new MatOfPoint2f();
    Core.perspectiveTransform(new MatOfPoint2f(object_corners),
            scene_corners2f, H);

    Point[] scene_corners = scene_corners2f.toArray();
    Point[] scene_corners_norm = new Point[4];
    scene_corners_norm[0] = new Point(scene_corners[0].x
            + img_object.cols(), scene_corners[0].y);
    scene_corners_norm[1] = new Point(scene_corners[1].x
            + img_object.cols(), scene_corners[1].y);
    scene_corners_norm[2] = new Point(scene_corners[2].x
            + img_object.cols(), scene_corners[2].y);
    scene_corners_norm[3] = new Point(scene_corners[3].x
            + img_object.cols(), scene_corners[3].y);
    Core.line(img_matches, scene_corners_norm[0], scene_corners_norm[1],
            new Scalar(0, 255, 0), 4);
    Core.line(img_matches, scene_corners_norm[1], scene_corners_norm[2],
            new Scalar(0, 255, 0), 4);
    Core.line(img_matches, scene_corners_norm[2], scene_corners_norm[3],
            new Scalar(0, 255, 0), 4);
    Core.line(img_matches, scene_corners_norm[3], scene_corners_norm[0],
            new Scalar(0, 255, 0), 4);

    bmp = Bitmap.createBitmap(img_matches.cols(), img_matches.rows(),
            Bitmap.Config.ARGB_8888);


     Intent resultIntent = new Intent("com.example.capturetest.Result");
     startActivity(resultIntent);

}

private volatile Mat cachedObjectDescriptor = null;
private volatile MatOfKeyPoint cachedObjectKeyPoints = null;
private volatile Mat cachedObjectImage = null;

private Mat calculateObjectDescriptor()
{
    Mat objectDescriptor = this.cachedObjectDescriptor;
    if (objectDescriptor == null)
    {
        Mat objectImage = getObjectImage();
        MatOfKeyPoint objectKeyPoints = detectObjectKeyPoints();
        objectDescriptor = newEmptyMat();
        this.extractor.compute(objectImage, objectKeyPoints,
                objectDescriptor);
        this.cachedObjectDescriptor = objectDescriptor;
    }
    return objectDescriptor;
}

private MatOfKeyPoint detectObjectKeyPoints()
{
    MatOfKeyPoint objectKeyPoints = this.cachedObjectKeyPoints;
    if (objectKeyPoints == null)
    {
        Mat objectImage = getObjectImage();
        objectKeyPoints = new MatOfKeyPoint();
        this.detector.detect(objectImage, objectKeyPoints);
        this.cachedObjectKeyPoints = objectKeyPoints;
    }
    return objectKeyPoints;
}

private Mat getObjectImage()
{
    Mat objectImage = this.cachedObjectImage;
    if (objectImage == null)
    {
        objectImage = newEmptyMat();
        Bitmap bitmap = ((BitmapDrawable) iv.getDrawable()).getBitmap();
        Bitmap img = bitmap.copy(Bitmap.Config.ARGB_8888, false);
        Utils.bitmapToMat(img, objectImage);

        this.cachedObjectImage = objectImage;
    }
    return objectImage;
}

private Mat newEmptyMat()
{
    return new Mat();
}

この行の後に matcher.match(descriptors_object, descriptors_scene, matches); 3 つの Mat img_object、img_scene、および一致をビットマップに変換して、確認のために Android デバイスに保存しました。それらはすべて、本来あるべき姿に見えるので、この時点までは問題ありません。

しかし、この部分の後...

 Mat img_matches = newEmptyMat();
    Features2d.drawMatches(
            img_object,
            keyPoints_object,
            img_scene,
            keyPoints_scene,
            new MatOfDMatch(good_matches.toArray(new DMatch[good_matches
                    .size()])), img_matches, Scalar.all(-1),
            Scalar.all(-1), new MatOfByte(),
            Features2d.NOT_DRAW_SINGLE_POINTS);

... Mat img_matches (正しく取得すれば、2 つの入力画像のすべての情報が含まれているはずです) をビットマップに変換して、Android デバイスに保存しようとしましたが、画像は次の画像のように見えます上記のリンク (線付きのカード画像ではなく、線付きの黒い画像)。

ここで何が間違っているのか知っている人はいますか?私は今のところ立ち往生しているようです。

よろしくお願いします。

編集:

デスクトップで通常の Java プログラムと同じコードが実行され、機能していることをお知らせしたいと思います。写真はそこにあるウェブカメラから撮影されたものです。結果の画像は、デスクトッププログラムで完全に正しく表示され、黒と線の代わりにカードと線が表示されます;)

4

1 に答える 1