计算机视觉与模式识别实验2-2 SIFT特征提取与匹配

2024-06-04 06:20

本文主要是介绍计算机视觉与模式识别实验2-2 SIFT特征提取与匹配,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

    • 🧡🧡实验流程🧡🧡
      • SIFT算法原理总结:
      • 实现SIFT特征检测和匹配
      • 通过RANSAC 实现图片拼接
      • 更换其他图片再次测试效果(依次进行SIFT特征提取、RANSAC 拼接)
    • 🧡🧡全部代码🧡🧡

🧡🧡实验流程🧡🧡

SIFT算法原理总结:

1.创建尺度空间:
高斯模糊去除噪声,强调了图像的重要特征
在这里插入图片描述
根据原图创建不同比例的新图像
在这里插入图片描述

2.采用高斯差异DOG增强特征
在这里插入图片描述
如下,对于某一比例的5张不同模糊程度的图像,进行差分
在这里插入图片描述

3.关键点定位(尺度不变性)
找出局部最大值和最小值(这里“局部”的含义:它不仅包括该图像的周围像素(像素所在的像素),还包括八度中上一张和下一张图像的九个像素)
这意味着将每个像素值与其他26个像素值进行比较,以确定是否为局部最大值/最小值。例如,在下图中,从第一个八度获得了三个图像。将标记为x的像素与相邻像素(绿色)进行比较,如果它是相邻像素中最高或最低的像素,则将其选择为关键点:
在这里插入图片描述
关键点的筛选
消除对比度低或非常靠近边缘的关键点:
采用二阶泰勒展开消除对比度低或非常靠近边缘的关键点、采用二阶Hessian矩阵来识别具有高边缘度但对少量噪点无鲁棒性的关键点

4.关键点方向分配(旋转不变性)
对于每个关键点和其周围的像素,都执行如下操作:
根据梯度计算幅度和方向,如下Gx=9,Gy=14则
在这里插入图片描述
在这里插入图片描述
随后创建大小和方向的柱状图
在这里插入图片描述

5.生成描述符
已经通过3、4生成了具有尺度不变性和旋转不变性的关键点,对于每个关键点,使用相邻像素,它们的方向和大小为该关键点生成一个唯一的指纹,称为“描述符”。

6.关键点匹配
使用描述子之间的距离或相似度度量来匹配不同图像中的关键点,通常采用最近邻或 k近邻方法来进行匹配。
(在opencv中,BFMatcher.match() 和BFMatcher.knnMatch(),第一个返回最佳匹配,第二个返回前k个最佳的匹配,k值由用户指定。)




实现SIFT特征检测和匹配

原始图像如下:
在这里插入图片描述

截出两个图像(分别截取前宽度的4/5和后4/5部分)
在这里插入图片描述

画出关键点
在这里插入图片描述

SIFT匹配(总共529个匹配,按连线长度升序,画出全部线)
在这里插入图片描述

为方便观察,画出按连线长度前100匹配的连线
在这里插入图片描述

将右侧图片旋转90度,重复上述步骤
在这里插入图片描述
在这里插入图片描述

将右侧图片旋转15度,并缩放到原图0.8倍,重复上述步骤
在这里插入图片描述
在这里插入图片描述




通过RANSAC 实现图片拼接

右侧图片正放
在这里插入图片描述
拼接结果:
在这里插入图片描述


右侧图片旋转90度
在这里插入图片描述
拼接结果:
在这里插入图片描述


右侧图片旋转15度并缩放到0.8倍
在这里插入图片描述
拼接结果:
在这里插入图片描述




更换其他图片再次测试效果(依次进行SIFT特征提取、RANSAC 拼接)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

🧡🧡全部代码🧡🧡

import numpy as np
import cv2
from matplotlib import pyplot as plt
def cv_show(title,img):cv2.imshow(title, img)cv2.waitKey(0)cv2.destroyAllWindows()
"""SIFT 图像特征连接+ RANSAC拼接
"""def check_and_draw_KeyPoint(img1,img2):img1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)img2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)# Siftsift = cv2.SIFT_create()kp1, des1 = sift.detectAndCompute(img1,None)kp2, des2 = sift.detectAndCompute(img2,None)# len(kp1), len(kp2)# Draw KeyPointimgShow1 = cv2.drawKeypoints(img1,kp1,None,color=(255,0,255)) #画出特征点,并显示为红色圆圈imgShow2 = cv2.drawKeypoints(img2,kp2,None,color=(255,0,255)) #画出特征点,并显示为红色圆圈cv_show("KeyPoint", np.hstack((imgShow1, imgShow2)))return img1,img2,kp1,kp2,des1,des2def match_KeyPoint(img1,img2,kp1,kp2,des1,des2,show_line_num=100):# Feature Matchingbf = cv2.BFMatcher(cv2.NORM_L1, crossCheck=True)matches = bf.match(des1,des2)matches =sorted(matches, key=lambda x:x.distance)# print(len(matches))imgShow = cv2.drawMatches(img1, kp1, img2, kp2, matches[0:show_line_num], None, flags=2)cv_show("Match",imgShow)def concat_Image(img1,img2,kp1,kp2,des1,des2):# 匹配特征,并返回透视变换矩阵matcher = cv2.BFMatcher()rawMatches = matcher.knnMatch(des2, des1, 2)matches = []for m in rawMatches:if len(m) == 2 and m[0].distance < m[1].distance * 0.75:matches.append((m[0].trainIdx, m[0].queryIdx))kp1 = np.float32([kp.pt for kp in kp1])kp2 = np.float32([kp.pt for kp in kp2])if len(matches) > 4:ptsA = np.float32([kp2[i] for (_, i) in matches])ptsB = np.float32([kp1[i] for (i, _) in matches])(H, status) = cv2.findHomography(ptsA, ptsB, cv2.RANSAC, 4.0)result = cv2.warpPerspective(img2, H, (img2.shape[1] + img1.shape[1], img2.shape[0]))result[0:img1.shape[0], 0:img1.shape[1]] = img1cv_show("Concat Image",result)if __name__=="__main__":# Read Original Imageimage = cv2.imread('img/test2_Sift.jpg')height, width, _ = image.shapeimage = cv2.resize(image,(int(width*4/6),int(height*4/6))) # 图片有点宽,缩放一下height, width, _ = image.shape# 截取前4/5部分和后4/5部分img1 = image[:, 0 : int(width * 4 / 5)]img2 = image[:, int(width / 5) : width]img1 = cv2.imread("img/test2_river1.png")img2 = cv2.imread("img/test2_river2.png")# 可注释)图像转变2:img2旋转90度
#     img2 = cv2.rotate(img2, cv2.ROTATE_90_CLOCKWISE) # 旋转90度
#     img2 = cv2.resize(img2,(img2.shape[1], img1.shape[0]))# 可注释)图像转变3:img2旋转15度,并且缩放到0.9倍,同时img1设置跟img2同样高度,并且宽度按比例变换
#     center=(width/2,height/2)
#     angle=15
#     scale=0.8
#     M=cv2.getRotationMatrix2D(center,angle,scale)
#     img2=cv2.warpAffine(img2,M,(int(width),int(1.1*height)))
#     img1=cv2.resize(img1,(int(img1.shape[1]*img2.shape[0]/img1.shape[0]), img2.shape[0]))cv_show("spilt", np.hstack((img1, img2))) #拼接显示原图# 调用自定义函数img1,img2,kp1,kp2,des1,des2=check_and_draw_KeyPoint(img1,img2) # 检测并画出关键点match_KeyPoint(img1,img2,kp1,kp2,des1,des2, show_line_num=100) # 连接关键点concat_Image(img1,img2,kp1,kp2,des1,des2) # 拼接图像

这篇关于计算机视觉与模式识别实验2-2 SIFT特征提取与匹配的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1029300

相关文章

关于Gateway路由匹配规则解读

《关于Gateway路由匹配规则解读》本文详细介绍了SpringCloudGateway的路由匹配规则,包括基本概念、常用属性、实际应用以及注意事项,路由匹配规则决定了请求如何被转发到目标服务,是Ga... 目录Gateway路由匹配规则一、基本概念二、常用属性三、实际应用四、注意事项总结Gateway路由

如何测试计算机的内存是否存在问题? 判断电脑内存故障的多种方法

《如何测试计算机的内存是否存在问题?判断电脑内存故障的多种方法》内存是电脑中非常重要的组件之一,如果内存出现故障,可能会导致电脑出现各种问题,如蓝屏、死机、程序崩溃等,如何判断内存是否出现故障呢?下... 如果你的电脑是崩溃、冻结还是不稳定,那么它的内存可能有问题。要进行检查,你可以使用Windows 11

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

计算机毕业设计 大学志愿填报系统 Java+SpringBoot+Vue 前后端分离 文档报告 代码讲解 安装调试

🍊作者:计算机编程-吉哥 🍊简介:专业从事JavaWeb程序开发,微信小程序开发,定制化项目、 源码、代码讲解、文档撰写、ppt制作。做自己喜欢的事,生活就是快乐的。 🍊心愿:点赞 👍 收藏 ⭐评论 📝 🍅 文末获取源码联系 👇🏻 精彩专栏推荐订阅 👇🏻 不然下次找不到哟~Java毕业设计项目~热门选题推荐《1000套》 目录 1.技术选型 2.开发工具 3.功能

hdu 3065 AC自动机 匹配串编号以及出现次数

题意: 仍旧是天朝语题。 Input 第一行,一个整数N(1<=N<=1000),表示病毒特征码的个数。 接下来N行,每行表示一个病毒特征码,特征码字符串长度在1—50之间,并且只包含“英文大写字符”。任意两个病毒特征码,不会完全相同。 在这之后一行,表示“万恶之源”网站源码,源码字符串长度在2000000之内。字符串中字符都是ASCII码可见字符(不包括回车)。

二分最大匹配总结

HDU 2444  黑白染色 ,二分图判定 const int maxn = 208 ;vector<int> g[maxn] ;int n ;bool vis[maxn] ;int match[maxn] ;;int color[maxn] ;int setcolor(int u , int c){color[u] = c ;for(vector<int>::iter

POJ 3057 最大二分匹配+bfs + 二分

SampleInput35 5XXDXXX...XD...XX...DXXXXX5 12XXXXXXXXXXXXX..........DX.XXXXXXXXXXX..........XXXXXXXXXXXXX5 5XDXXXX.X.DXX.XXD.X.XXXXDXSampleOutput321impossible

STM32(十一):ADC数模转换器实验

AD单通道: 1.RCC开启GPIO和ADC时钟。配置ADCCLK分频器。 2.配置GPIO,把GPIO配置成模拟输入的模式。 3.配置多路开关,把左面通道接入到右面规则组列表里。 4.配置ADC转换器, 包括AD转换器和AD数据寄存器。单次转换,连续转换;扫描、非扫描;有几个通道,触发源是什么,数据对齐是左对齐还是右对齐。 5.ADC_CMD 开启ADC。 void RCC_AD

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

二分图的最大匹配——《啊哈!算法》

二分图 如果一个图的所有顶点可以被分为X和Y两个集合,并且所有边的两个顶点恰好一个属于X,另外一个属于Y,即每个集合内的顶点没有边相连,那么此图就是二分图。 二分图在任务调度、工作安排等方面有较多的应用。 判断二分图:首先将任意一个顶点着红色,然后将其相邻的顶点着蓝色,如果按照这样的着色方法可以将全部顶点着色的话,并且相邻的顶点着色不同,那么该图就是二分图。 java