暴力匹配器很简单。它使用第一组中一个特征的描述符,并使用一些距离计算将其与第二组中的所有其他特征匹配。并返回最接近的一个。 对于BF匹配器,首先必须使cv.BFMatcher() 创建BFMatcher对象。 它需要两个可选参数:
第一个参数是normType,它指定要使用的距离测量。默认情况下为 cv2.NORM_L2
。对于SIFT, SURF等(也有 cv2.NORM_L1
)很有用。 对于基于二进制字符串的描述符,例如ORB,BRIEF,BRISK等,应使用cv2.NORM_HAMMING
,该函数使用汉明距离作为度量。如果ORB使用WTA_K == 3或 4
,则应使用 cv.NORM_HAMMING2。
第二个参数是布尔变量,即crossCheck
,默认情况下为false。如果为true,则Matcher仅返回具有值(i,j)(i,j)(i,j)的那些匹配项,以使集合A中的第i个描述符具有集合B中的第j个描述符为最佳匹配,反之亦然。即两组中的两个特征应彼此匹配。它提供了一致的结果,并且是D.Lowe在SIFT论文中提出的比率测试的良好替代方案。 创建之后,两个重要的方法是
BFMatcher.match()
: 返回最佳匹配
BFMatcher.knnMatch()
: 返回k个最佳匹配,其中k由用户指定。 当需要对此做其他工作时,它可能会很有用。 就像使用cv.drawKeypoints()绘制关键点一样,cv.drawMatches()
可以帮助绘制出匹配项。它水平堆叠两张图像,并绘制从第一张图像到第二张图像的线,以显示最佳匹配。还有
cv.drawMatchesKnn绘制所有k个最佳匹配。如果 k=2 ,它将为每个关键点绘制两条匹配线。 因此,如果要选择性地绘制,则必须通过掩码。 下面来看一个SIFT和ORB的示例(两者都使用不同的距离测量)。
下面将看到一个有关如何在两个图像之间匹配特征的简单示例。在这种情况下,有一 个queryImage和trainImage。将尝试使用特征匹配在trainImage中找到queryImage。(图像 是/samples/data/box.png和/samples/data/box_in_scene.png)
使用ORB描述符来匹配特征。因此,从加载图像,查找描述符等开始。之后创建一个距离测量值为cv2.NORM_HAMMING的BFMatcher对象(因为使用的是ORB),并且启用了CrossCheck以获得更好的结果。然后,使用Matcher.match()
方法来获取两个图像中的最佳匹配。按照距离的升序对它们进行排序,以使最佳匹配(低距离) 排在前面。然后我们只抽出前10的匹配(只是为了提高可见度。您可以根据需要增加它)
# create bfmatcher object bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True) # match descriptors matches = bf.match(des1, des2) # sort them in the order of their distance matches = sorted(matches, key=lambda x: x.distance) # draw first 10 matches img3 = cv2.drawMatches(img1, kp1, img2, kp2, matches[:10], None, flags=cv2.DrawMatchesFlags_NOT_DRAW_SINGLE_POINTS) plt.imshow(img3) plt.show()
matchs = bf.match(des1,des2)
的结果DMatch
对象的列表。该DMatch
对象具有以下属性:
DMatch.distance
-描述符之间的距离,越低越好
DMatch.trainIdx
-train描述符中的描述符索引
DMatch.queryIdx
-query描述符中的描述符索引
DMatch.imgIdx
-train 图像的索引。
这次,将使用BFMatcher.knnMatch()
获得k个最佳匹配。在此示例中,将k = 2
,以便可以应用D.Lowe在他的论文中阐述的比例测试。
import cv2 import numpy as np from matplotlib import pyplot as plt img1 = cv2.imread('box2.png', cv2.IMREAD_GRAYSCALE) img2 = cv2.imread('box_in_scene.png', cv2.IMREAD_GRAYSCALE) # initate sift detector sift = cv2.xfeatures2d.SIFT_create() # find teh keypoints and descriptors with sift kp1, des1 = sift.detectAndCompute(img1, None) kp2, des2 = sift.detectAndCompute(img2, None) # BFMatcher with default params bf = cv2.BFMatcher() matches = bf.knnMatch(des1, des2, k=2) # apply ratio test good = [] for m, n in matches: if m.distance < 0.75 * n.distance: good.append([m]) # cv.drawMatchsKnn expects list of lists as matches. img3 = cv2.drawMatchesKnn(img1, kp1, img2, kp2, good, None, flags=cv2.DrawMatchesFlags_NOT_DRAW_SINGLE_POINTS) plt.imshow(img3) plt.show()
FLANN是近似最近邻的快速库。它包含一组算法,这些算法针对大型数据集中的快速最近邻搜索和高维特征进行了优化。 对于大型数据集,它的运行速度比BFMatcher快。我们将看到第二个基于FLANN的匹配器示例。 对于基于FLANN的匹配器,需要传递两个字典,这些字典指定要使用的算法,其相关参数等。
第一个是IndexParams
。对于各种算法,要传递的信息在FLANN文档中进行了说明。概括来说,对于SIFT,SURF等算法,可以通过以下操作:
FLANN_INDEX_KDTREE = 1 index_params = dict(algorithm=FLANN_INDEX_KDTREE, trees=5)
当使用ORB时,可以参考下面。根据文档建议使用带注释的值,但在某些情况下未提供必需的参数。其他值也可以正常工作。
FLANN_INDEX_LSH = 6 index_params = dict( algorithm=FLANN_INDEX_LSH, table_number=6, key_size=12, multi_probe_level=1)
第二个字典是SearchParams
,它指定索引中的树应递归遍历的次数。 较高的值可提供更好的精度,但也需要更多时间。如果要更改值,请传递 search_params = dict(checks = 100)
有了这些信息,就很容易。
import cv2 import numpy as np from matplotlib import pyplot as plt img1 = cv2.imread('box2.png', cv2.IMREAD_GRAYSCALE) img2 = cv2.imread('box_in_scene.png', cv2.IMREAD_GRAYSCALE) # initiate sift detector sift = cv2.xfeatures2d.SIFT_create() # find the keypoints and descriptors with sift kp1, des1 = sift.detectAndCompute(img1, None) kp2, des2 = sift.detectAndCompute(img2, None) # FLANN params FLANN_INDEX_KDTREE = 1 index_params = dict(algorithm=FLANN_INDEX_KDTREE, trees=5) search_params = dict(checks=50) flann = cv2.FlannBasedMatcher(index_params, search_params) matches = flann.knnMatch(des1, des2, k=2) # need to draw only good matches, so create a mask matchesMask = [[0,0] for i in range(len(matches))] # ratio test as per low's papre for i, (m, n) in enumerate(matches): if m.distance < 0.7*n.distance: matchesMask[i] = [1, 0] # draw darw_params = dict( matchColor=(0, 255, 0), singlePointColor=(255, 0, 0), matchesMask=matchesMask, flags=cv2.DrawMatchesFlags_DEFAULT) img3 = cv2.drawMatchesKnn(img1, kp1, img2, kp2, matches, None, **darw_params) plt.imshow(img3) plt.show()
The above is the detailed content of How to implement image feature matching using Python and OpenCV?. For more information, please follow other related articles on the PHP Chinese website!