FLANN を使用して多くの画像の SIFT 特徴マッチングを最適化するにはどうすればよいですか?
Python OpenCV docs から取った実際の例があります。ただし、これはある画像を別の画像と比較しており、遅いです。一連の画像 (数千枚) で一致する機能を検索する必要があり、高速化する必要があります。
私の現在の考え:
- すべての画像を実行し、機能を保存します。どのように?
- カメラからの画像をこの上のベースと比較し、正しいものを見つけます。どのように?
- 結果、一致する画像などを教えてください。
import sys # デバッグ専用
numpy を np としてインポート
インポート cv2
matplotlib から pyplot を plt としてインポート
MIN_MATCH_COUNT = 10
img1 = cv2.imread('image.jpg',0) # queryImage
img2 = cv2.imread('target.jpg',0) # trainImage
# SIFT 検出器の開始
ふるい = cv2.SIFT()
# SIFT でキーポイントと記述子を見つける
kp1, des1 = sift.detectAndCompute(img1,なし)
kp2, des2 = sift.detectAndCompute(img2,なし)
FLANN_INDEX_KDTREE = 0
index_params = dict(アルゴリズム = FLANN_INDEX_KDTREE、ツリー = 5)
search_params = dict(チェック = 50)
flann = cv2.FlannBasedMatcher(index_params, search_params)
マッチ = flann.knnMatch(des1,des2,k=2)
# Lowe の比率検定に従ってすべての適切な一致を保存します。
良い = []
一致する m,n の場合:
m.distance MIN_MATCH_COUNT の場合:
src_pts = np.float32([ kp1[m.queryIdx].pt for m in good ]).reshape(-1,1,2)
dst_pts = np.float32([ kp2[m.trainIdx].pt for m in good ]).reshape(-1,1,2)
M、マスク = cv2.findHomography(src_pts、dst_pts、cv2.RANSAC、5.0)
マッチマスク = mask.ravel().tolist()
h,w = img1.shape
pts = np.float32([ [0,0],[0,h-1],[w-1,h-1],[w-1,0] ]).reshape(-1,1,2)
dst = cv2.perspectiveTransform(pts,M)
img2 = cv2.polylines(img2,[np.int32(dst)],True,255,3, cv2.LINE_AA)
そうしないと:
print "十分な一致が見つかりません - %d/%d" % (len(good),MIN_MATCH_COUNT)
一致マスク = なし
draw_params = dict(matchColor = (0,255,0), # マッチを緑色で描画
singlePointColor = なし、
MatchMask = MatchMask, # インライアのみを描画
フラグ = 2)
img3 = cv2.drawMatches(img1,kp1,img2,kp2,good,None,**draw_params)
plt.imshow(img3, 'グレー'),plt.show()
アップデート
多くのことを試した後、私は今解決に近づいたかもしれません。インデックスを作成して、次のように検索できることを願っています。
flann_params = dict(アルゴリズム=1、ツリー=4)
flann = cv2.flann_Index(npArray, flann_params)
idx, dist = flann.knnSearch(queryDes, 1, params={})
ただし、受け入れられた npArray を flann_Index パラメータに構築することはまだできていません。
すべての画像を画像としてループします。 npArray.append(sift.detectAndCompute(画像、なし)) npArray = np.array(npArray)