g2o学习心得

2024-03-26 16:18
文章标签 学习心得 g2o

本文主要是介绍g2o学习心得,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

最近在学习g2o库的使用,折腾了几天,虽然整体还不是很清楚,但有不少收获,先做总结。

1. 学习方法

学习资料比较杂乱,我个人感觉最佳的学习方法是:

  1. 了解图优化基本思想
  2. 大致阅读g2o的教程文档:g2o: A general Framework for (Hyper) Graph Optimization
  3. 清楚写一个g2o需要做什么
  4. 对照API文档,逐个学习真实代码中的细节是在干什么。
  5. 不断实践学习

2. 具体内容

2.1 理论学习

SLAM图优化相关博客:https://blog.csdn.net/heyijia0327/article/details/47686523
g2o文档:g2o: A general Framework for (Hyper) Graph Optimization
文档来源:1. g2o源码中:g2o/doc/g2o.pdf
2. 我上传了百度网盘:https://pan.baidu.com/s/1zk4CXWOjpnmYLORhxQxa0Q 提取码: v7tx

2.2 g2o的下载与安装

g2o github: https://github.com/RainerKuemmerle/g2o
下载下来以后,执行常规操作即可。

生成API文档
g2o的源码自带了API文档,但需要doxygen生成,同时保证安装了dot这个东西。

  1. doxygen下载与安装:https://blog.csdn.net/tfb760/article/details/103593100
  2. 安装完成doxygen,需要安装graphviz/dot,方法如下:
sudo apt-get install graphviz
# 之后遇到报错: 依赖libcdt5...等balabala
sudo apt-get -f install 
  1. 生成API: 进入g2o/doc/doxygen文件,按照readme.txt执行
doxygen doxy.config

之后生成了html文件,可以在这里下载(提取码efma)我自己生成的

2.3 使用g2o优化需要定义什么?

代码中使用g2o时,需要定义以下三项内容:
1. 定义边(edge)和顶点(vertex):包括边和顶点的数据类型,顶点的数据更新方式,边的误差计算方法;
2. 确定优化求解器,包括:线性方程求解器、BlockSolver和迭代策略
3. 将定义的边和顶点连接成图,并开始优化

3. 具体例子

下面使用《视觉SLAM十四讲》中第6讲非线性优化的代码,注释说明具体的使用方法。
完整代码下载:https://pan.baidu.com/s/1YAIMiWPmPV2CDL8MTNV4tA 提取码: evzt

STEP 1. 定义顶点

class CurveFittingVertex : public g2o::BaseVertex<3, Eigen::Vector3d> {	
// 自定义一个Vertex类,继承基本的BaseVertex,3维向量,数据格式为Vector3d
public:
// 这里时Eigen的一个宏定义,声明后后面的new方法使用eigen自己定义的方法,避免系统new的一些问题EIGEN_MAKE_ALIGNED_OPERATOR_NEW// 定义“设置为零的实现(implement)”,覆盖默认的虚函数virtual void setToOriginImpl() override {	_estimate << 0, 0, 0;}// 定义Oplus(自定义加法)的实现,即顶点的更新方法virtual void oplusImpl(const double *update) override {	_estimate += Eigen::Vector3d(update);}virtual bool read(istream &in) {}		// 读写函数不覆盖virtual bool write(ostream &out) const {}
};

可以看出,需要重写四个函数,其中最重要的oplusImpl,表示更新方法。由于顶点数据可能是自己定义的,所对应的加法(写作" ⊕ \oplus ",所以函数名是"o-plus",而Impl指implement,这个是自己推测的……)需要自己定义而不是简单的相加。但这里进行拟合只是1维数字,所以直接加就行。

STEP 2. 定义边

// 自定义一个Edge类,继承自BaseUnaryEdge,有1个变量,类型是double,连接的vertex(由于是unary所以只有一个)类型时CurveFittingVertex
class CurveFittingEdge : public g2o::BaseUnaryEdge<1, double, CurveFittingVertex> {	
public:EIGEN_MAKE_ALIGNED_OPERATOR_NEWCurveFittingEdge(double x) : BaseUnaryEdge(), _x(x) {}virtual void computeError() override { // 重写computeError函数,用于计算误差// 通过从API文档中翻阅,可以查到 _vertices 是一个 vecotr<Vertex*>,所以取[0]为第一个Vertex,强制转化成我们自定义的 CurveFittingVertex类。const CurveFittingVertex *v = static_cast<const CurveFittingVertex *> (_vertices[0]);		const Eigen::Vector3d abc = v->estimate();	// 读取当前边的估计值// 计算误差,误差是由measurement减去的当前估计值算出来的结果,_error是由Eigen定义的一个向量,向量的维度和类型默认被父类定义好了_error(0, 0) = _measurement - std::exp(abc(0, 0) * _x * _x + abc(1, 0) * _x + abc(2, 0));		}
// 计算雅可比矩阵,这一部分可以不写。如果不写,将采用内置的数值计算方法求解,但速度较慢。
// 如果具体写出了,将采用重写的方法进行计算,速度较快。  virtual void linearizeOplus() override {const CurveFittingVertex *v = static_cast<const CurveFittingVertex *> (_vertices[0]);const Eigen::Vector3d abc = v->estimate();double y = exp(abc[0] * _x * _x + abc[1] * _x + abc[2]);_jacobianOplusXi[0] = -_x * _x * y;		// _jacobianOplusXi是 JacobianXiOplusType,本质是一个Eigen::Matrix_jacobianOplusXi[1] = -_x * y;_jacobianOplusXi[2] = -y;}virtual bool read(istream &in) {}virtual bool write(ostream &out) const {}
public:double _x;
};

STEP 3. 在main中定义优化器

typedef g2o::BlockSolver<g2o::BlockSolverTraits<3, 1>> BlockSolverType; // 简写BlockSolver,其由一个具体的BlockSolverTraits定义维度3x1.
typedef g2o::LinearSolverDense<BlockSolverType::PoseMatrixType> LinearSolverType; // 定义先行求解器的简写,来自于BlockSolver的PoseMatrixType。
// 定义一个求解器,使用GN算法(只能是GN,LM,DogLeg的一种),具体定义形式参看API文档。自己还不是很清楚
auto solver = new g2o::OptimizationAlgorithmGaussNewton(
g2o::make_unique<BlockSolverType>(g2o::make_unique<LinearSolverType>()));
g2o::SparseOptimizer optimizer;		// 定义图模型
optimizer.setAlgorithm(solver);		// 选择求解算法,使用刚刚定义的求解器

STEP 4. 连接成图

// 首先增加节点
CurveFittingVertex *v = new CurveFittingVertex();
v->setEstimate(Eigen::Vector3d(ae, be, ce));	// 设定初始值为估计值
v->setId(0);			// 每个顶点需要确定唯一的id
optimizer.addVertex(v);	// 将定义好的节点加到优化器中// 再增加边
for (int i = 0; i < N; i++) {	// 把所有观测数据加上,每个都是一条边CurveFittingEdge *edge = new CurveFittingEdge(x_data[i]);edge->setId(i);				// 边也需要设定唯一的IDedge->setVertex(0, v);		// 设置连接的顶点,第一个0表示这个边的一个节点(如果是Binary的edge,则需要设定0和1两个节点,分别连接那个节点)edge->setMeasurement(y_data[i]);	// 将观测值设置为测量值// 信息矩阵,用于加权,取协方差矩阵的倒数。具体的取值根据经验吧。edge->setInformation(Eigen::Matrix<double, 1, 1>::Identity() * 1 / (w_sigma * w_sigma)); 			optimizer.addEdge(edge);		// 把边加进去
}

STEP 5. 开始优化求解

optimizer.initializeOptimization();		// 初始化:
optimizer.optimize(10);					// 设定迭代次数并开始迭代优化

4. 其他

可以参考g2o中example提供的更多例子。

这篇关于g2o学习心得的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/849083

相关文章

Java EE学习心得

–Java EE学习心得     1.    称为编程专家的秘诀是: 思考-----编程--------思考------编程…….. 编程不能一步到位,不能一上来就编,必须先思考如何写,怎样写?然后再编程,完事后,再思考  我编的程序还有那些不好的地方和要改进的地方,可以增加写什么功能等等;然后再去编程; 2. 先搭建整体框架再抠细节,在编程中不管是什么要先做出来,再去问怎么做!即是:先K

24.9.1学习心得

VGG(Visual Geometry Group)网络是由牛津大学视觉几何小组提出的一种卷积神经网络模型,该模型因其在ImageNet大规模视觉识别挑战赛(ILSVRC 2014)中的优异表现而闻名。VGG模型的特点在于其架构的简单性和一致性,以及对参数数量的大量使用,这使得它成为了深度学习领域中一个非常受欢迎的基础模型。 VGG架构的主要特点包括: 堆叠的3x3卷积层:VGG网络使用了多

城市管理违规行为智能识别 Task3学习心得

本次学习主要针对数据集增强和模型预测 1、数据增强: 1)将四张训练图像组合成一张,增加物体尺度和位置的多样性。 2)复制一个图像的随机区域并粘贴到另一个图像上,生成新的训练样本 3)图像的随机旋转、缩放、平移和剪切,增加对几何变换的鲁棒性 4)通过线性组合两张图像及其标签创造合成图像,增加特征空间的泛化 5)一个支持多种增强技术的图像增强库,提供灵活的增强管道定义 6)对图像的色相

Datawhale X 李宏毅苹果书 AI夏令营_深度学习基础学习心得Task2.2

本次学习分类问题 1、分类与回归: 回归一般输出一个值y_hat 期望与y越接近越好。分类一般有几类就输出几个值,是一个one-hot的向量,在类别对应的位置值为1 本文介绍了一种重复输出数值后加权的方法,但是我做分类一般用全连接层直接输出多个值,然后使用argmax函数 2、softmax: 公式: 其实主要是一个归一化的作用,并且输出所有值的和为1,这样就类似于每一个类别的概率;并

【60天备战2024年11月软考高级系统架构设计师——第0天:详细规划与学习心得】

开篇 2024年11月的软考高级系统架构设计师考试即将到来,留给我们的时间不多了。在这60天的时间里,我决定全力以赴,通过系统的学习和高效的复习,争取在考试中取得理想的成绩(必拿下)。这篇博客将分享我为备考制定的详细学习计划,以及如何在紧张的时间里高效学习。 第一部分:备考规划概述 要在两个月内通过高级系统架构设计师考试,合理的学习计划是关键。我将整个备考过程划分为四个阶段:基础知识复习、重

Datawhale X 李宏毅苹果书 AI夏令营_深度学习基础学习心得Task2

本次学习主要针对自适应学习率;介绍了Adagrad,RMSprop和Adam优化器 1、为什么需要自适应学习率: 训练一个网络,在走到临界点的时候损失不再下降,而梯度并没有变得很小。相当于下坡路在两步之间,而步子迈大了,直接把下坡路跳过了,又走到上坡路上了。在这时候就需要把学习率(步幅)调低一点让梯度继续下降。 但是常规的 学习率下降方法是不够用的,我们希望在梯度大的时候走慢点,在梯度小的时

24.8.26学习心得

验证数据集(Validation Set)和测试数据集(Test Set)在机器学习和深度学习中都是非常重要的概念。它们各自有不同的用途和目的。下面详细解释两者之间的区别: 1. 验证数据集(Validation Set) 目的: 超参数调整:验证数据集主要用于调整模型的超参数,如学习率、正则化系数、网络层数等。模型选择:用于选择最佳模型。例如,在交叉验证中,通过在验证数据集上的表现来选择性

Datawhale X 李宏毅苹果书 AI夏令营_深度学习基础学习心得

本次学习了深度学习中的局部最小值 1、书上说有时候模型一开始就训练不起来,不管怎么更新参数损失都不下降。我之前遇到过这种情况,大概是做一个数据很不平衡的二分类,正负样本比例大概为9:1,模型倾向于全部预测为正样本,没有办法学习负样本。 2、3.1.1介绍了一下鞍点,鞍点的各个方向的梯度是等于零的,而我们的模型反向传播又是基于梯度的,所以到了鞍点就没有办法再让损失下降了,但是其实鞍点和局部最优又

g2o编译及配置

对于ubuntu14.04来说g2o的编译和配置还是比较容易的,只不过今天走了一段弯路,很是上火。现在写出我掉进去的坑,希望其他人不要再踩了。建议参考:http://www.ithao123.cn/content-10682274.html 1.首先在https://github.com/RainerKuemmerle/g2o.git 下载g2o包,按要求安装依赖项: cmake libe

PSO算法学习心得

一 算法基本思想    粒子群优化算法属于群智能(swarm intelligence)优化算法。群智能分两种,一种是粒群优化,一种是蚁群优化。        群智能概念:假设你和你的朋友们(individual)去寻宝(objective),每个人都有一个探测器(function)可以知道宝藏到探测器的距离。在找的过程中,每个人都可以把信息共享出去,每个人都能看到现在谁离宝藏最近。这样,你看