9

私はPythonでopencvを使おうとしています。opencv2.4のC++バージョンでコードに一致する記述子(SIFT、SURF、またはORB)を作成しました。このコードをPythonでopencvに変換したいと思います。C ++でのopencv関数の使用方法に関するドキュメントをいくつか見つけましたが、Pythonでのopencv関数の多くはそれらの使用方法を見つけることができませんでした。これが私のPythonコードですが、現在の問題は、Pythonでopencvc++の「drawMatches」を使用する方法がわからないことです。cv2.DRAW_MATCHES_FLAGS_DEFAULTを見つけましたが、使用方法がわかりません。ORB記述子を使用したマッチングのPythonコードは次のとおりです。

im1 = cv2.imread(r'C:\boldt.jpg')
im2 = cv2.cvtColor(im1, cv2.COLOR_BGR2GRAY)
im3 = cv2.imread(r'C:\boldt_resize50.jpg')
im4 = cv2.cvtColor(im3, cv2.COLOR_BGR2GRAY)

orbDetector2 = cv2.FeatureDetector_create("ORB")
orbDescriptorExtractor2 = cv2.DescriptorExtractor_create("ORB")
orbDetector4 = cv2.FeatureDetector_create("ORB")
orbDescriptorExtractor4 = cv2.DescriptorExtractor_create("ORB")

keypoints2 = orbDetector2.detect(im2)
(keypoints2, descriptors2) = orbDescriptorExtractor2.compute(im2,keypoints2)
keypoints4 = orbDetector4.detect(im4)
(keypoints4, descriptors4) = orbDescriptorExtractor4.compute(im4,keypoints4)
matcher = cv2.DescriptorMatcher_create('BruteForce-Hamming')
raw_matches = matcher.match(descriptors2, descriptors4)
img_matches = cv2.DRAW_MATCHES_FLAGS_DEFAULT(im2, keypoints2, im4, keypoints4, raw_matches)
cv2.namedWindow("Match")
cv2.imshow( "Match", img_matches);

「img_matches=cv2.DRAW_MATCHES_FLAGS_DEFAULT(im2、keypoints2、im4、keypoints4、raw_matches)」という行のエラーメッセージ

Traceback (most recent call last):
File "<stdin>", line 1, in <module>
TypeError: 'long' object is not callable

ドキュメントとPythonでのopencv関数の使用例の検索に多くの時間を費やしました。ただし、Pythonでopencv関数を使用するための情報がほとんどないため、私は非常にイライラしています。誰かがPythonでopencvモジュールのすべての関数を使用する方法のドキュメントを見つけることができる場所を教えてくれると非常に役立ちます。お手数をおかけしますが、よろしくお願いいたします。

4

3 に答える 3

15

また、OpenCV Python インターフェイスのみを使用するものを自分で作成しましたが、使用しませんでしscipyた。 drawMatchesOpenCV 3.0.0 の一部であり、現在使用している OpenCV 2 の一部ではありません。私はパーティーに遅れましたが、これdrawMatchesは私の能力を最大限に模倣した私自身の実装です。

1 つはカメラマンのもので、もう 1 つは同じ画像ですが、反時計回りに 55 度回転した独自の画像を提供しました。

私が書いたものの基本的な前提は、出力画像に両方の画像を配置するために行の量が2つの画像の最大であり、列が単に両方の列の合計である出力RGB画像を割り当てることです一緒。各画像を対応するスポットに配置し、一致したすべてのキーポイントのループを実行します。2 つの画像間で一致するキーポイントを抽出し、それら(x,y)の座標を抽出します。次に、検出された各位置に円を描き、これらの円を結ぶ線を描きます。

2 番目の画像で検出されたキーポイントは、独自の座標系を基準にしていることに注意してください。これを最終出力画像に配置する場合は、列座標が出力画像の座標系に関連するように、最初の画像から列の量だけ列座標をオフセットする必要があります。 .

難しい話は抜きにして:

import numpy as np
import cv2

def drawMatches(img1, kp1, img2, kp2, matches):
    """
    My own implementation of cv2.drawMatches as OpenCV 2.4.9
    does not have this function available but it's supported in
    OpenCV 3.0.0

    This function takes in two images with their associated 
    keypoints, as well as a list of DMatch data structure (matches) 
    that contains which keypoints matched in which images.

    An image will be produced where a montage is shown with
    the first image followed by the second image beside it.

    Keypoints are delineated with circles, while lines are connected
    between matching keypoints.

    img1,img2 - Grayscale images
    kp1,kp2 - Detected list of keypoints through any of the OpenCV keypoint 
              detection algorithms
    matches - A list of matches of corresponding keypoints through any
              OpenCV keypoint matching algorithm
    """

    # Create a new output image that concatenates the two images together
    # (a.k.a) a montage
    rows1 = img1.shape[0]
    cols1 = img1.shape[1]
    rows2 = img2.shape[0]
    cols2 = img2.shape[1]

    out = np.zeros((max([rows1,rows2]),cols1+cols2,3), dtype='uint8')

    # Place the first image to the left
    out[:rows1,:cols1,:] = np.dstack([img1, img1, img1])

    # Place the next image to the right of it
    out[:rows2,cols1:cols1+cols2,:] = np.dstack([img2, img2, img2])

    # For each pair of points we have between both images
    # draw circles, then connect a line between them
    for mat in matches:

        # Get the matching keypoints for each of the images
        img1_idx = mat.queryIdx
        img2_idx = mat.trainIdx

        # x - columns
        # y - rows
        (x1,y1) = kp1[img1_idx].pt
        (x2,y2) = kp2[img2_idx].pt

        # Draw a small circle at both co-ordinates
        # radius 4
        # colour blue
        # thickness = 1
        cv2.circle(out, (int(x1),int(y1)), 4, (255, 0, 0), 1)   
        cv2.circle(out, (int(x2)+cols1,int(y2)), 4, (255, 0, 0), 1)

        # Draw a line in between the two points
        # thickness = 1
        # colour blue
        cv2.line(out, (int(x1),int(y1)), (int(x2)+cols1,int(y2)), (255, 0, 0), 1)


    # Show the image
    cv2.imshow('Matched Features', out)
    cv2.waitKey(0)
    cv2.destroyAllWindows()

これが機能することを示すために、使用した 2 つの画像を次に示します。

ここに画像の説明を入力

ここに画像の説明を入力

OpenCV の ORB 検出器を使用してキーポイントを検出し、正規化されたハミング距離を類似性の距離尺度として使用しました。これはバイナリ記述子であるためです。そのような:

import numpy as np
import cv2

img1 = cv2.imread('cameraman.png') # Original image
img2 = cv2.imread('cameraman_rot55.png') # Rotated image

# Create ORB detector with 1000 keypoints with a scaling pyramid factor
# of 1.2
orb = cv2.ORB(1000, 1.2)

# Detect keypoints of original image
(kp1,des1) = orb.detectAndCompute(img1, None)

# Detect keypoints of rotated image
(kp2,des2) = orb.detectAndCompute(img2, None)

# Create matcher
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)

# Do matching
matches = bf.match(des1,des2)

# Sort the matches based on distance.  Least distance
# is better
matches = sorted(matches, key=lambda val: val.distance)

# Show only the top 10 matches
drawMatches(img1, kp1, img2, kp2, matches[:10])

これは私が得るイメージです:

ここに画像の説明を入力

于 2014-10-07T15:59:30.600 に答える
15

次のように、Python で一致する機能を視覚化できます。scipy ライブラリの使用に注意してください。

# matching features of two images
import cv2
import sys
import scipy as sp

if len(sys.argv) < 3:
    print 'usage: %s img1 img2' % sys.argv[0]
    sys.exit(1)

img1_path = sys.argv[1]
img2_path = sys.argv[2]

img1 = cv2.imread(img1_path, cv2.CV_LOAD_IMAGE_GRAYSCALE)
img2 = cv2.imread(img2_path, cv2.CV_LOAD_IMAGE_GRAYSCALE)

detector = cv2.FeatureDetector_create("SURF")
descriptor = cv2.DescriptorExtractor_create("BRIEF")
matcher = cv2.DescriptorMatcher_create("BruteForce-Hamming")

# detect keypoints
kp1 = detector.detect(img1)
kp2 = detector.detect(img2)

print '#keypoints in image1: %d, image2: %d' % (len(kp1), len(kp2))

# descriptors
k1, d1 = descriptor.compute(img1, kp1)
k2, d2 = descriptor.compute(img2, kp2)

print '#keypoints in image1: %d, image2: %d' % (len(d1), len(d2))

# match the keypoints
matches = matcher.match(d1, d2)

# visualize the matches
print '#matches:', len(matches)
dist = [m.distance for m in matches]

print 'distance: min: %.3f' % min(dist)
print 'distance: mean: %.3f' % (sum(dist) / len(dist))
print 'distance: max: %.3f' % max(dist)

# threshold: half the mean
thres_dist = (sum(dist) / len(dist)) * 0.5

# keep only the reasonable matches
sel_matches = [m for m in matches if m.distance < thres_dist]

print '#selected matches:', len(sel_matches)

# #####################################
# visualization of the matches
h1, w1 = img1.shape[:2]
h2, w2 = img2.shape[:2]
view = sp.zeros((max(h1, h2), w1 + w2, 3), sp.uint8)
view[:h1, :w1, :] = img1  
view[:h2, w1:, :] = img2
view[:, :, 1] = view[:, :, 0]  
view[:, :, 2] = view[:, :, 0]

for m in sel_matches:
    # draw the keypoints
    # print m.queryIdx, m.trainIdx, m.distance
    color = tuple([sp.random.randint(0, 255) for _ in xrange(3)])
    cv2.line(view, (int(k1[m.queryIdx].pt[0]), int(k1[m.queryIdx].pt[1])) , (int(k2[m.trainIdx].pt[0] + w1), int(k2[m.trainIdx].pt[1])), color)


cv2.imshow("view", view)
cv2.waitKey()
于 2012-12-28T12:27:16.353 に答える
2

エラー メッセージにあるように、DRAW_MATCHES_FLAGS_DEFAULT の型は「long」です。関数ではなく、cv2 モジュールで定義された定数です。残念ながら、必要な関数「drawMatches」は、OpenCV の C++ インターフェイスにしか存在しません。

于 2012-07-02T06:48:34.657 に答える