之前我们讨论过了众多的特征检测算法,这次我们来讨论如何运用相关的方法进行特征匹配。本次教程完全为实战教程,没有相关的算法原理介绍,大家可以轻松一下了。

蛮力匹配(ORB匹配)

Brute-Force 匹配非常简单,首先在第一幅图像中选择一个关键点然后依次与第二幅图像的每个关键点进行(改变)距离测试,最后返回距离最近的关键点。

对于 BF 匹配器,首先我们必须使用 cv2.BFMatcher ()创建 BFMatcher 对象。它需要两个可选的参数。

1. 第一个是 normType ,它指定要使用的距离测量,或在其他情况下,它是 cv2.NORM_L2 。它适用于 SIFT , SURF 等( cv2.NORM_L1 也在那里)。替代,如 ORB ,附图, BRISK 等,应使用 cv2.NORM_HAMMING ,使用汉明距离作为度量,如果 ORB 使用 WTA_K == 3or4 ,则应使用 cv2.NORM_HAMMING2 。

2.         crossCheck :最小数值为假。如果设置为 True ,则匹配条件就会更加严格,只有到 A 中的第 i 个特征点与 B 中的第 j 个特征点距离最近,并且 B 中的第 j 个特征点到 A 中的第 i 个特征点也是最近时才会返回最佳匹配,即这两个特征点要互相匹配才行。

两个重要的方法是 BFMatcher.match ()和 BFMatcher.knnMatch (),第一个返回最佳匹配,第二种方法返回 k 个最佳匹配,其中 k 由用户指定。

使用 cv2.drawMatches()来拆分匹配的点,它可以将两幅图像先行水平划分,然后在最佳匹配的点之间对齐直线。如果前面使用的 BFMatcher.knnMatch(),现在可以使用函数 cv2。 drawMatchsKnn 为每个关键点和它的一个最佳匹配如果要选择替换就要给函数重新定义一个指针。

我们来看代码:

def BruteForce(img1,img2):
#启动ORB检测器
orb = cv2.ORB_create()
#使用ORB查找关键点和描述符
kp1,des1 = orb.detectAndCompute(img1,无)
kp2,des2 = orb.detectAndCompute(img2,无)
#创建BFMatcher对象
bf = cv2.BFMatcher(cv2.NORM_HAMMING,crossCheck = True)
#匹配描述符。
匹配= bf.match(des1,des2)
#按距离排序。
匹配=已排序(匹配,键= lambda x:x.distance)
#抽出前10场比赛。
img3 = cv2.drawMatches(img1,kp1,img2,kp2,matches [:10],无,标志= 2)
plt.imshow(img3),plt.show()  输出:
SIFT的特征匹配
关于 SIFT 的概念我们之前已经讨论过,现在来看相关的实战代码:def SIFT(img1,img2):
#启动SIFT检测器
筛选= cv2.xfeatures2d.SIFT_create()
#使用SIFT查找关键点和描述符
kp1,des1 = sift.detectAndCompute(img1,无)
kp2,des2 = sift.detectAndCompute(img2,无)
#具有默认 参数的   BFMatcher
bf = cv2.BFMatcher()
匹配= bf.knnMatch(des1,des2,k = 2)
#应用比例测试
好= []

对于 m,n个比赛:

如果

m.distance <0.6 * n.distance:
good.append([m])
#cv.drawMatchesKnn希望将列表作为匹配项。
img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,良好,无,标志= 2)
plt.imshow(img3),plt.show()
结果:

实际上我们可以看到,与蛮力匹配分类, SIFT 算法的特征匹配是十分强大的,效果较好。

SURF的特征匹配def SURF(img1,img2):

#启动SIFT检测器
冲浪= cv2.xfeatures2d.SURF_create()
#使用SIFT查找关键点和描述符
kp1,des1 = surf.detectAndCompute(img1,无)
kp2,des2 = surf.detectAndCompute(img2,无)
#具有默认 参数的   BFMatcher
bf = cv2.BFMatcher()
匹配= bf.knnMatch(des1,des2,k = 2)
#应用比例测试

好= []

对于 m,n个比赛:

如果 

m.distance <0.6 * n.distance:
good.append([m])
#cv.drawMatchesKnn希望将列表作为匹配项。
img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,良好,无,标志= 2)
plt.imshow(img3),plt.show()

SIFT 算法的特征匹配相比较 SURF说,基本上效果差不多,但是速度不同。

基于FLANN的匹配器

FLANN 代表近似最近邻居的快速库。它包含一组算法,这些算法针对大型数据集中的快速最近邻搜索和高维特征进行了优化。对于大型数据集,它比 BFMatcher 工作得更好。

代码:

def FLANN(img1,img2):
#启动SIFT检测器

筛选= cv2.xfeatures2d.SIFT_create()

#使用SIFT查找关键点和描述符
kp1,des1 = sift.detectAndCompute(img1,无)
kp2,des2 = sift.detectAndCompute(img2,无)
#FLANN参数
FLANN_INDEX_KDTREE = 1
index_params = dict(算法= FLANN_INDEX_KDTREE,树= 5)
search_params = dict(checks = 50)#或传递空字典
flann = cv2.FlannBasedMatcher(index_params,search_params)

匹配= flann.knnMatch(des1,des2,k = 2)

#只需要绘制好匹配项,因此创建一个蒙版
matchsMask = [[0,0]  for  i in range(len(matches))]
#根据Lowe的论文进行比率测试

对于 枚举(匹配)中的i,(m,n):

如果

m.distance <0.6 * n.distance:
matchsMask [i] = [1,0]
draw_params = dict(matchColor =(0,255,0),
singlePointColor =(255,0,0),
matchMask = matchesMask,
标志= 0)
img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,匹配,无,** draw_params)
plt.imshow(img3,),plt.show()

输出结果:

FLANN 属于单应性匹配,单应性指的是图像在投影发生了畸变后仍然能够有更高的检测和匹配准确率,它可以大概率上避免旋转和放缩带来的影响。