半直接法视觉里程计(SVO)实践

2024-08-22 10:18

本文主要是介绍半直接法视觉里程计(SVO)实践,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

本文主要分两部分,编译安装SVO后对官方数据集的测试以及实验室摄像头的测试。

一.SVO安装及测试

在官方github首页上有比较详细的安装说明,不过部分步骤略有问题,此处给出成功安装的步骤。操作系统为ubuntu16.04并且安装ROS系统。

共创建两个工作空间,一个存放各种库,包括fastg2o以及Sophus,另一个存放SVO代码。

1.安装Sophus库

按照步骤即可

cd workspace

git clone https://github.com/strasdat/Sophus.git

cd Sophus

git checkout a621ff

mkdir build

cd build

cmake ..

make

2.安装角点检测库

同样按照步骤即可

cd workspace

git clone https://github.com/uzh-rpg/fast.git

cd fast

mkdir build

cd build

cmake ..

make

3.安装g2o库(选择性)

这一步同样按照官网步骤即可,另外需要安装的依赖库有cmake, libeigen3-dev, libsuitesparse-dev, libqt4-dev, qt4-qmake, libqglviewer-qt4-dev,使用apt-get安装即可。

cd workspace

git clone https://github.com/RainerKuemmerle/g2o.git

cd g2o

mkdir build

cd build

cmake ..

make

sudo make install

需要注意的是,按照官方说明安装的eigen库并不能在当前SVO版本中工作,解决办法是安装eigen3.2.10。(此问题在github上的issue栏中有说明)eigen下载链接

http://bitbucket.org/eigen/eigen/get/3.2.10.tar.bz2

下载后运行如下命令编译安装

tar -xf [name of the file]

cd [name of the file]

mkdir build

cd build

cmake ..

sudo make install

4.按照官网安装vikit和ROS依赖项

cd catkin_ws/src

git clone https://github.com/uzh-rpg/rpg_vikit.git

sudo apt-get install ros-hydro-cmake-modules

命令中将hydro替换为自己对应的发行版即可,此处为kinect

5.编译代码

cd catkin_ws/src

git clone https://github.com/uzh-rpg/rpg_svo.git

如果安装了g2o则需要将svo/CMakeLists.txt文件中的HAVE_G2O变量置为TRUE,添加环境变量G2O_ROOT

gedit  ~/.bashrc

添加export G2O_ROOT = $HOME/SLAM/SVO/g2o

使用catkin_make编译SVO代码。

6.测试数据集

下载地址 

rpg.ifi.uzh.ch/datasets/airground_rig_s3_2013-03-18_21-38-48.bag

一共需要开启四个命令行窗口,首先启动ROS,运行roscore

然后是roslaunch svo_ros test_rig3.launch,运行此命令前需要运行source devel/setup.bash

再然后是运行

rosrun rviz rviz -d <PATH TO rpg_svo>/svo_ros/rviz_config.rviz

开启GUI查看结果。

最后运行

rosbag play airground_rig_s3_2013-03-18_21-38-48.bag

加载数据集,可以在GUI中看到数据集运行的效果。

二.摄像头测试

测试摄像头前需要标定,使用atan模型的效果较好,可以在PTAM中进行摄像头的标定,不过由于PTAM没有安装成功,因此这里使用SVO中原有的参数,只要在参数文件中把图像宽度和高度做修改即可。

1.图像采集

使用ROS提供的usb camera节点程序采集摄像头图像,下载编译后运行

rosrun usb_cam usb_cam_node开始采集图像并发布,运行如下命令查看原始彩色图像

rosrun image_view image_view image:=/usb_cam/image_raw

2.图像转换

SVO使用的图像为单通道灰度图,摄像头输出为RGB彩色图像,因此还需要一个节点程序订阅彩色图像后转换成灰度图并发布。创建ROS节点程序可以参考:

http://www.cnblogs.com/blue35sky/p/6078771.html

注意创建时添加对应的依赖项,如opencv相关的依赖项cv_bridgeimage_transport。转换后的图像为/mono_image,运行图像转换程序

rosrun cam_test cam_test_node并在第一步查看图像命令中修改需要查看的图像主题名即可看到灰度图像。

转换代码:

#include <ros/ros.h>
#include <opencv2/opencv.hpp>
#include <opencv/cv.h>
#include <opencv/highgui.h>
#include <image_transport/image_transport.h>
#include <cv_bridge/cv_bridge.h>
#include <sensor_msgs/image_encodings.h>
#include "ros/ros.h"
#include "std_msgs/String.h"ros::Publisher image_pub ;void chatterCallback(const sensor_msgs::ImageConstPtr& msg)
{cv_bridge::CvImagePtr  cv_ptr;cv_ptr = cv_bridge::toCvCopy(msg,sensor_msgs::image_encodings::BGR8);cv::Mat image_gray;cv::cvtColor(cv_ptr->image, image_gray,CV_BGR2GRAY);//灰度化cv_bridge::CvImage  cvi;sensor_msgs::Image  ros_img;ros::Time time=ros::Time::now();cvi.header.stamp = time;cvi.header.frame_id = "image";cvi.encoding = "mono8";cvi.image = image_gray;cvi.toImageMsg(ros_img);image_pub.publish(cvi.toImageMsg());
}int main(int argc, char **argv)
{ros::init(argc, argv, "img_tran");ros::NodeHandle n;ros::Subscriber sub = n.subscribe("/usb_cam/image_raw", 1000, chatterCallback);image_pub = n.advertise<sensor_msgs::Image>("/mono_image", 1000);ros::spin();return 0;
}

3.启动SVO测试

可以直接在原有的test_rig3.launch文件中稍作修改后启动SVO,将摄像头主题的值修改为/mono_image,即上一步发布的灰度图。下面的摄像头校准文件,如果做了校准,可以写成param文件夹中文件的格式,之后在启动文件中将摄像头校准文件参数改成自己的文件就好。一般情况下只有这两处需要修改,之后就可以启动SVO,启动GUI查看位姿估计结果。这里由于摄像头没有校准,因此成功率不高,经常提示特征点太少,不过成功的情况下位姿估计效果还是不错的。

这篇关于半直接法视觉里程计(SVO)实践的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1095984

相关文章

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

Prometheus与Grafana在DevOps中的应用与最佳实践

Prometheus 与 Grafana 在 DevOps 中的应用与最佳实践 随着 DevOps 文化和实践的普及,监控和可视化工具已成为 DevOps 工具链中不可或缺的部分。Prometheus 和 Grafana 是其中最受欢迎的开源监控解决方案之一,它们的结合能够为系统和应用程序提供全面的监控、告警和可视化展示。本篇文章将详细探讨 Prometheus 和 Grafana 在 DevO

springboot整合swagger2之最佳实践

来源:https://blog.lqdev.cn/2018/07/21/springboot/chapter-ten/ Swagger是一款RESTful接口的文档在线自动生成、功能测试功能框架。 一个规范和完整的框架,用于生成、描述、调用和可视化RESTful风格的Web服务,加上swagger-ui,可以有很好的呈现。 SpringBoot集成 pom <!--swagge

计算机视觉工程师所需的基本技能

一、编程技能 熟练掌握编程语言 Python:在计算机视觉领域广泛应用,有丰富的库如 OpenCV、TensorFlow、PyTorch 等,方便进行算法实现和模型开发。 C++:运行效率高,适用于对性能要求严格的计算机视觉应用。 数据结构与算法 掌握常见的数据结构(如数组、链表、栈、队列、树、图等)和算法(如排序、搜索、动态规划等),能够优化代码性能,提高算法效率。 二、数学基础

vue2实践:el-table实现由用户自己控制行数的动态表格

需求 项目中需要提供一个动态表单,如图: 当我点击添加时,便添加一行;点击右边的删除时,便删除这一行。 至少要有一行数据,但是没有上限。 思路 这种每一行的数据固定,但是不定行数的,很容易想到使用el-table来实现,它可以循环读取:data所绑定的数组,来生成行数据,不同的是: 1、table里面的每一个cell,需要放置一个input来支持用户编辑。 2、最后一列放置两个b

【HarmonyOS】-TaskPool和Worker的对比实践

ArkTS提供了TaskPool与Worker两种多线程并发方案,下面我们将从其工作原理、使用效果对比两种方案的差异,进而选择适用于ArkTS图片编辑场景的并发方案。 TaskPool与Worker工作原理 TaskPool与Worker两种多线程并发能力均是基于 Actor并发模型实现的。Worker主、子线程通过收发消息进行通信;TaskPool基于Worker做了更多场景化的功能封装,例

《计算机视觉工程师养成计划》 ·数字图像处理·数字图像处理特征·概述~

1 定义         从哲学角度看:特征是从事物当中抽象出来用于区别其他类别事物的属性集合,图像特征则是从图像中抽取出来用于区别其他类别图像的属性集合。         从获取方式看:图像特征是通过对图像进行测量或借助算法计算得到的一组表达特性集合的向量。 2 认识         有些特征是视觉直观感受到的自然特征,例如亮度、边缘轮廓、纹理、色彩等。         有些特征需要通

【python计算机视觉编程——7.图像搜索】

python计算机视觉编程——7.图像搜索 7.图像搜索7.1 基于内容的图像检索(CBIR)从文本挖掘中获取灵感——矢量空间模型(BOW表示模型)7.2 视觉单词**思想****特征提取**: 创建词汇7.3 图像索引7.3.1 建立数据库7.3.2 添加图像 7.4 在数据库中搜索图像7.4.1 利用索引获取获选图像7.4.2 用一幅图像进行查询7.4.3 确定对比基准并绘制结果 7.

参会邀请 | 第二届机器视觉、图像处理与影像技术国际会议(MVIPIT 2024)

第二届机器视觉、图像处理与影像技术国际会议(MVIPIT 2024)将于2024年9月13日-15日在中国张家口召开。 MVIPIT 2024聚焦机器视觉、图像处理与影像技术,旨在为专家、学者和研究人员提供一个国际平台,分享研究成果,讨论问题和挑战,探索前沿技术。诚邀高校、科研院所、企业等有关方面的专家学者参加会议。 9月13日(周五):签到日 9月14日(周六):会议日 9月15日(周日