360全景图拼接

2024-03-04 13:48
文章标签 360 拼接 全景图

本文主要是介绍360全景图拼接,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!



转自:http://blog.csdn.net/u014088052/article/details/50531675

最近做了一个关于全景拼接的,觉得这是一个比较简单地项目吧,但是真正做起来还是有很多问题,期间也再网上看大家做的,基本上都只拼接了两张图,当我拼接全景的时候,畸变就会指数式的增长,后来发现大家通常用的方法有点问题,在这里我说一下我的思路。

  • 柱面投影
  • 特征点的提取和匹配
  • 图像融合

柱面投影

具体的原理和推导过程百度百科就有,这里就不说了。
这是柱面投影公式:

⎧ ⎩ ⎨ ⎪ ⎪ x  =rW2 r(arctan(W2 xr ))y  =H2 r(H2 y)d   

其中,
⎧ ⎩ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ r=W2tana2  w=2arctan(W2r )d=H2 +(W2 x) 2  − − − − − − − − − − − −     

但是在使用整个投影公式的时候回出现一个问题,因为经过数值计算以后,对应的坐标是小数,做近似处理后,投影后的图片会有锯齿现象。所以可以使用柱面反投影,遍历柱面图像中的每一个像素点,得到每一点在原始图像中的采样点的像素坐标值,虽然得到的采样点的坐标也是小数值,但是可以根据双线性插值运算来近似求得该小数位置的颜色值。
反投影公式:
⎧ ⎩ ⎨ x=W2 +rtan(x  r w2 )y=H2 +d(y  H2 )r   

Mat cyP(Mat imageIn, int n){const float PI = 3.1415926;int w = imageIn.cols;int h = imageIn.rows;Mat imageOut(imageIn.rows, imageIn.cols, imageIn.type());//新建一张与imagIn相同尺寸类型的图片double sita = 2 * PI / n;double f = w / 2 / tan(sita / 2);for (int i = 0; i < h; i++){for (int j = 0; j < w; j++){double x = f*tan(j / f - sita / 2) + w / 2;double y = (i - h / 2)*sqrt((x - w / 2)*(x - w / 2) + f*f) / f + h / 2;//柱面反投影(i,j为柱面图上坐标;x,y为原图上坐标)if (x > 0 && x < w - 1 && y > 0 && y < h - 1){double u, v;u = x - int(x);v = y - int(y);Vec3b s0, s1, s2, s3, s4;s1 = imageIn.at<Vec3b>(int(y), int(x));s2 = imageIn.at<Vec3b>(int(y), int(x) + 1);s3 = imageIn.at<Vec3b>(int(y) + 1, int(x));s4 = imageIn.at<Vec3b>(int(y) + 1, int(x) + 1);s0 = (1 - u)*(1 - v)*s1 + (1 - u)*v*s2 + u*(1 - v)*s2 + u*v*s3;//使用双线性插值计算对应点的像素值imageOut.at<Vec3b>(i, j) = s0;}if (x == w - 1 || y == h - 1){imageOut.at<Vec3b>(i, j) = imageIn.at<Vec3b>(x, y);}}}return imageOut;
}

特征点的匹配和筛选

这里就直接使用了 SURF 特征点提取,先通过两个特征向量之间的欧氏距离进行一次筛选,接着用 RANSAC方法计算这些关键点之间的变换矩阵,计算出内点和野点。

initModule_nonfree();//初始化模块,使用SIFT或SURF时用到 Ptr<FeatureDetector> detector = FeatureDetector::create("SURF");//创建SIFT特征检测器,可改成SURF/ORBPtr<DescriptorExtractor> descriptor_extractor = DescriptorExtractor::create("SURF");//创建特征向量生成器,可改成SURF/ORBPtr<DescriptorMatcher> descriptor_matcher = DescriptorMatcher::create("BruteForce");//创建特征匹配器  Mat img2ROI = img2(Rect(0, 0, img1.cols, img1.rows));//对image2提取感兴趣区域,为了减少计算量和避免最后一张计算矩阵出错//特征点检测vector<KeyPoint> m_LeftKey, m_RightKey;detector->detect(img1, m_LeftKey);detector->detect(img2ROI, m_RightKey);//根据特征点计算特征描述子矩阵,即特征向量矩阵  Mat descriptors1, descriptors2;descriptor_extractor->compute(img1, m_LeftKey, descriptors1);descriptor_extractor->compute(img2ROI, m_RightKey, descriptors2);//特征匹配  vector<DMatch> matches;//匹配结果  descriptor_matcher->match(descriptors1, descriptors2, matches); //计算匹配结果中距离的最大和最小值,距离是指两个特征向量间的欧式距离,表明两个特征的差异,值越小表明两个特征点越接近  double max_dist = 0;double min_dist = 100;for (int i = 0; i<matches.size(); i++){double dist = matches[i].distance;if (dist < min_dist) min_dist = dist;if (dist > max_dist) max_dist = dist;}//筛选出较好的匹配点  vector<DMatch> goodMatches;for (int i = 0; i<matches.size(); i++){if (matches[i].distance < 0.2 * max_dist)//0.2这个阈值可以调整{goodMatches.push_back(matches[i]);}}//RANSAC匹配过程vector<DMatch> m_Matches = goodMatches;// 分配空间int ptCount = (int)m_Matches.size();Mat p1(ptCount, 2, CV_32F);Mat p2(ptCount, 2, CV_32F);// 把Keypoint转换为MatPoint2f pt;for (int i = 0; i<ptCount; i++){pt = m_LeftKey[m_Matches[i].queryIdx].pt;p1.at<float>(i, 0) = pt.x;p1.at<float>(i, 1) = pt.y;pt = m_RightKey[m_Matches[i].trainIdx].pt;p2.at<float>(i, 0) = pt.x;p2.at<float>(i, 1) = pt.y;}// 用RANSAC方法计算FMat m_Fundamental;vector<uchar> m_RANSACStatus;       // 这个变量用于存储RANSAC后每个点的状态,0表示野点,1表示内点findFundamentalMat(p1, p2, m_RANSACStatus, FM_RANSAC);// 计算野点个数int OutlinerCount = 0;for (int i = 0; i<ptCount; i++){if (m_RANSACStatus[i] == 0)    // 状态为0表示野点{OutlinerCount++;}}int InlinerCount = ptCount - OutlinerCount;   // 计算内点个数

图像的融合

这里就是比较重要的部分,之前大家都会计算一个单映性矩阵,H=findHomography, 我们会使用这个来筛选匹配点是没有问题的,就像上面的标准矩阵是一样的功能,但是后来大家在融合的时候用这个矩阵去变换整个图片就不正确了,因为这个矩阵式适合在平面上的计算,而我们这边是360柱面的,在计算矩阵之前我们已经进行了柱面投影,不再适用这个变换矩阵了。

其实我们接下来需要做的更简单,只要求出对应匹配点之间的平移向量,然后通过平移,将图片融合就可以了

融合的时候,采用以下的公式,让融合部分更加平滑一点:
d1d1+d2 img1+d2d1+d2 img2 

vector<float> m_DiffX;//用来储存对应匹配点之间X的距离vector<float> m_DiffY;//用来储存对应匹配点之间Y的距离m_DiffX.resize(InlinerCount);m_DiffY.resize(InlinerCount);InlinerCount = 0;for (int i = 0; i<ptCount; i++){if (m_RANSACStatus[i] != 0){float x1 = p1.at<float>(i, 0);float y1 = p1.at<float>(i, 1);float x2 = p2.at<float>(i, 0);float y2 = p2.at<float>(i, 1);m_DiffX[InlinerCount] = img1.cols - x1 + x2;m_DiffY[InlinerCount] = y1 - y2;//冒泡排序对应匹配点X和Y的距离for (int k = 0; k < InlinerCount; k++){if (m_DiffX[InlinerCount - k] < m_DiffX[InlinerCount - k -1]){ //判断所取点是否在图片范围内float t1 = m_DiffX[InlinerCount - k];m_DiffX[InlinerCount - k] = m_DiffX[InlinerCount - k -1];m_DiffX[InlinerCount - k -1] = t1;}if (m_DiffY[InlinerCount - k] < m_DiffY[InlinerCount - k - 1]){float t2 = m_DiffY[InlinerCount - k];m_DiffY[InlinerCount - k] = m_DiffY[InlinerCount - k - 1];m_DiffY[InlinerCount - k - 1] = t2;}}InlinerCount++;}}//取中值作为平移的向量int diffX = m_DiffX[int(InlinerCount/2)];int diffY = m_DiffY[int(InlinerCount / 2)];//cout << "diffY=" << diffY << endl;int h = img1.rows;int w = img2.cols + img1.cols - diffX;Mat img_result = Mat::zeros(h, w, img1.type());//新建融合效果图空间int nc = w*img_result.channels();int nc_lift = (img1.cols - diffX)*img1.channels();//左边部分的宽int nc_right = img1.cols*img1.channels();//右边比分的宽for (int i = 0; i < h; i++){for (int j = 0; j < nc; j++){if (j < nc_lift){img_result.at<uchar>(i, j) = img1.at<uchar>(i, j);//左边部分直接取img1的点}else if (j >= nc_right){if (i - diffY >= 0 && i - diffY < img_result.rows){img_result.at<uchar>(i, j) = img2.at<uchar>(i - diffY, j - nc_lift);//右边部分直接取img2的点}}else {if (i - diffY >= 0 && i - diffY < img_result.rows){float percentRight = (j - nc_lift) / (float)(diffX*img1.channels());//中间融合部分的点两张图进行融合处理img_result.at<uchar>(i, j) = img1.at<uchar>(i, j)*(1 - percentRight) + img2.at<uchar>(i - diffY, j - nc_lift)*percentRight;}}}}


这篇关于360全景图拼接的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/773368

相关文章

AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出

AI(文生语音)-TTS 技术线路探索学习:从拼接式参数化方法到Tacotron端到端输出 在数字化时代,文本到语音(Text-to-Speech, TTS)技术已成为人机交互的关键桥梁,无论是为视障人士提供辅助阅读,还是为智能助手注入声音的灵魂,TTS 技术都扮演着至关重要的角色。从最初的拼接式方法到参数化技术,再到现今的深度学习解决方案,TTS 技术经历了一段长足的进步。这篇文章将带您穿越时

js操作Dom节点拼接表单及ajax提交表单

有时候我们不希望html(jsp、vm)中有创建太多的标签(dom节点),所以这些任务都由js来做,下面提供套完整的表单提交流程,只需要在html中添加两个div其余的都由js来做吧。下面原生代码只需略微修改就能达到你想要的效果。 1、需要创建表单的点击事件 <a href="javascript:void(0);"onclick="changeSettleMoney('$!doctor.do

【语句】如何将列表拼接成字符串并截取20个字符后面的

base_info = "".join(tree.xpath('/html/head/script[4]/text()'))[20:] 以下是对这个语句的详细讲解: tree.xpath('/html/head/script[4]/text()')部分: tree:通常是一个已经构建好的 HTML 文档树对象,它是通过相关的 HTML 解析库(比如 lxml)对 HTML 文档进行解

【Go - 拼接字符串】

在 Go 中,可以使用多种方式拼接字符串。以下是一些常见的方法: 使用 + 操作符 这是最简单的方式,适用于少量字符串的拼接。 str := "Hello, " + "world!" 使用 fmt.Sprintf 适用于需要格式化字符串的场景。 str := fmt.Sprintf("Hello, %s!", "world") 使用 strings.Builder 适用于需要高

javascript 拼接字符串

var names1=["aa","bb","hh"]; var names2=["cc","kk","jj"]; var nam=names1.concat(names2); console.log(nam); //运行结果    ["aa", "bb", "hh", "cc", "kk", "jj"]

企业级大数据平台建设参考 | 淘宝滴滴美团360快手京东

点击上方蓝色字体,选择“设为星标” 回复”资源“获取更多资源 本文结合小编自己的经验并且参考了淘宝&滴滴&美团&360&快手等各个大厂大数据平台建设的思路。在尊重事实的基础上重新组织了语言和内容,旨在给读者揭开一个完善的大数据平台的组成和发展过程。 大数据平台是为了计算,现今社会所产生的越来越大的数据量,以存储、运算、展现作为目的的平台。大数据技术是指从各种各样类型的数据中,快速获得有价值信息

也来测测javascript拼接字符串不同方法的效率

今天,对javascript中拼接字符串的两种方法做了个效率对比。第一种是 += 的方法,第二种 是join 。 代码实现如下: 第一种 += <script type="text/javascript">d1=new Date();var arr = [];for (var i = 0; i < 10000000; i++) {arr.push(i);};var str = '

华为OD机试 - 拼接URL(Python/JS/C/C++ 2024 D卷 100分)

一、题目描述 给定一个URL前缀和URL后缀,通过”,”分割,需要将其连接为一个完整的URL,如果前缀结尾和后缀开头都没有“/”,需自动补上“/”连接符,如果前缀结尾和后缀开头都为“/”,需自动去重。 约束:不用考虑前后缀URL不合法情况。 二、输入描述 URL前缀(一个长度小于100的字符串),URL后缀(一个长度小于100的字符串)。 三、输出描述 拼接后的URL。 四、解题思路

拼接数组/删除元素

矩阵拼接的函数tf.stack()与矩阵分解的函数tf.unstack() tf.unstack(value, num=None, axis=0, name='unstack')Unpacks the given dimension of a rank-`R` tensor into rank-`(R-1)` tensors.Unpacks `num` tensors from `value`

Python行结构(逻辑行、物理行、显式拼接行、隐式拼接行、空白行)

Python行结构 (逻辑行、物理行、显式拼接行、隐式拼接行、空白行) 本文目录: 零、时光宝盒 一、Python PEP8 编码行规范 1.1、Maximum Line Length 行的最大长度 1.2、在二元运算符之前应该换行吗?  二、Python行结构 2.1、物理行  2.2、逻辑行 2.3、显式拼接行 2.4、隐式拼接行 2.5、Blank Lines 空