本文主要是介绍传统CV算法——特征匹配算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Brute-Force蛮力匹配
Brute-Force蛮力匹配是一种简单直接的模式识别方法,经常用于计算机视觉和数字图像处理领域中的特征匹配。该方法通过逐一比较目标图像中的所有特征点与源图像中的特征点来寻找最佳匹配。这种方法的主要步骤包括:
-
特征提取:首先,从两个待比较的图像中提取关键特征点。这些特征点通常是图像中的角点、边缘或其他显著的图像属性。
-
特征描述:对提取出的每个特征点生成一个描述符,这个描述符捕捉了特征点周围的图像信息,通常是通过一定的算法(如SIFT、SURF或ORB等)来实现。
-
匹配过程:在蛮力匹配中,源图像的每个特征点的描述符都会与目标图像中每个特征点的描述符进行比较。比较通常基于描述符之间的距离度量(如欧氏距离或汉明距离),以找到最相似的匹配对。
-
选择最佳匹配:根据某种标准(如最小距离)从所有可能的匹配中选择最佳匹配。有时也会使用比如比率测试来进一步验证匹配的质量,以排除错误匹配。
虽然Brute-Force匹配方法在小型或中等复杂度的数据集上可以非常有效,但它的计算成本随着特征点数量的增加而显著增加,这可能导致在大规模数据集上的性能问题。因此,它通常被用于那些对实时性要求不是非常高的应用,或者作为复杂匹配算法的初步匹配步骤。
import cv2
import numpy as np
import matplotlib.pyplot as plt
def cv_show(name,img):cv2.imshow(name, img)cv2.waitKey(0)cv2.destroyAllWindows()img1 = cv2.imread('box.png', 0)
img2 = cv2.imread('box_in_scene.png', 0)
cv_show('img1',img1)
cv_show('img2',img2)
sift = cv2.SIFT_create()
kp1, des1 = sift.detectAndCompute(img1, None)
kp2, des2 = sift.detectAndCompute(img2, None)
# crossCheck表示两个特征点要互相匹,例如A中的第i个特征点与B中的第j个特征点最近的,并且B中的第j个特征点到A中的第i个特征点也是
#NORM_L2: 归一化数组的(欧几里德距离),如果其他特征计算方法需要考虑不同的匹配计算方式
bf = cv2.BFMatcher(crossCheck=True)
1对1的匹配
matches = bf.match(des1, des2)
matches = sorted(matches, key=lambda x: x.distance)
img3 = cv2.drawMatches(img1, kp1, img2, kp2, matches[:10], None,flags=2)
cv_show('img3',img3)
k对最佳匹配
cv2.BFMatcher()
创建一个Brute-Force匹配器对象,该对象可以用来匹配两个图像之间的特征点。Brute-Force匹配是一种在两组特征点之间找到最佳匹配的简单方法,通过计算一个特征点与另一组中所有特征点之间的距离来实现。
然后,knnMatch
方法被用来找到每个描述符的前k
个最佳匹配。在这个例子中,k
被设为2,这意味着对于第一组描述符中的每个描述符(des1
),算法将找到与第二组描述符(des2
)中距离最近的两个描述符。这种方法通常用于执行比如SIFT或SURF这类特征描述符的匹配。
返回的matches
是一个列表,其中每个元素也是一个列表,包含两个最佳匹配(因为k=2
)。这允许进一步的处理,例如使用比率测试来过滤不良匹配。比率测试通常涉及比较两个最佳匹配之间的距离比,如果第一个距离明显小于第二个(例如,小于阈值的50%),那么我们认为这是一个“好”的匹配。这有助于排除错误的匹配,提高匹配质量。
bf = cv2.BFMatcher()
matches = bf.knnMatch(des1, des2, k=2)
good = []
for m, n in matches:if m.distance < 0.75 * n.distance:good.append([m])
img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,good,None,flags=2)
cv_show('img3',img3)
如果需要更快速完成操作,可以尝试使用cv2.FlannBasedMatcher
cv2.FlannBasedMatcher()
创建了基于FLANN(Fast Library for Approximate Nearest Neighbors)的匹配器对象。FLANN是一个用于大数据集和高维特征的快速近似最近邻搜索库,通常比Brute-Force匹配在这类情况下执行得更快。
knnMatch
方法同样被用来在两组特征描述符之间找到每个描述符的前k
个最佳匹配,这里的 k
设为2。这意味着对于第一组描述符(des1
)中的每个描述符,FLANN匹配器将在第二组描述符(des2
)中找到两个最近似的匹配。
返回的 matches
是一个列表,每个元素也是一个列表,包含每个描述符的两个最佳匹配。这同样允许进一步的处理,比如通过比率测试来过滤掉那些质量不高的匹配,增强匹配结果的准确性。
bf = cv2.FlannBasedMatcher()
matches = bf.knnMatch(des1, des2, k=2)
good = []
for m, n in matches:if m.distance < 0.75 * n.distance:good.append([m])
img4 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,good,None,flags=2)
cv_show('img4',img4)
随机抽样一致算法(Random sample consensus,RANSAC)
选择初始样本点进行拟合,给定一个容忍范围,不断进行迭代。
每一次拟合后,容差范围内都有对应的数据点数,找出数据点个数最多的情况,就是最终的拟合结果
单应性矩阵
单应性矩阵:指在计算机视觉和图像处理中用来表示两个平面之间的投影关系的一种矩阵。当两个平面之间的投影关系可以用一个矩阵表示时,这个矩阵就被称为单应性矩阵。
在二维平面中,单应性矩阵是一个3x3的矩阵,它可以描述一个平面上的点在另一个平面上的投影位置。这个投影关系可以用以下的公式表示:
[ x ′ , y ′ , w ′ ] T = H ∗ [ x , y , w ] T [x', y', w']^T = H * [x, y, w]^T [x′,y′,w′]T=H∗[x,y,w]T
其中[x, y, w]是原始平面上的点的齐次坐标,[x’, y’, w’]是投影平面上的点的齐次坐标,H是单应性矩阵。
单应性矩阵可以被用来进行图像处理中的各种操作,如图像拼接、图像配准、图像纠正等。通过计算两个平面之间的单应性矩阵,就可以将一个平面上的点映射到另一个平面上,实现不同平面之间的转换和对齐。
单应性矩阵的计算通常需要已知的对应点对,即已知两个平面上的一些点在对应的投影位置。通过这些对应点对,可以通过最小二乘法或其他优化方法来计算单应性矩阵。
值得注意的是,在计算单应性矩阵时,需要至少有四个对应点对,因为单应性矩阵有8个自由度,而每个对应点对提供了两个约束条件。
总之,单应性矩阵在计算机视觉和图像处理中具有重要的应用,可以描述平面之间的投影关系,并用于图像的转换和对齐任务。单应性矩阵是指在计算机视觉和图像处理中用来表示两个平面之间的投影关系的一种矩阵。当两个平面之间的投影关系可以用一个矩阵表示时,这个矩阵就被称为单应性矩阵。
这篇关于传统CV算法——特征匹配算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!