本文主要是介绍[论文笔记]S2P2 Self-Supervised Goal-Directed Path Planning Using RGB-D Data_2021ICRA,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
S2P2: Self-Supervised Goal-Directed Path Planning Using RGB-D Datafor Robotic Wheelchairs
视频链接
基于端到端模仿学习的路径规划的两个局限性:
· 需要大量的专家演示作为训练数据
· 现有的方法只能接收高级命令,如左转/右转。对于移动机器人(如机器人轮椅)来说,这些指令可能不够充分,因为它们通常需要精确的目标姿态,就比如向右转面对一个大空地 这个指令描述可能不够准确。
本文基于以上两点,提出S2P2 (Self-Supervised Path Planning),而这个网络和其他网络的区别就是,S2P2不需要专家手动数据,而且可以直接将目标姿态作为输入,而不是高级的命令。
作者首先开发了一个规划路径生成器 planned path generator (PPG) 输入为相机图像和目标姿态,输出为规划的路径标签。接着使用一个最佳拟合回归损失来训练这个基于生成标签的数据驱动路径规划模型。
路径规划
传统的路径规划
传统的路径规划算法一般可分为纯算法 Complete algorithms和基于采样的算法两大类。存算法,如A*和JPS,如果存在一个最优解,那么就可以找到,但它们的计算量往往很大。基于采样的算法,如PRM和RRT*,在规划路径的质量和效率之间进行权衡。由于感知模块的不确定性,这些算法的效果可能不稳定。
端到端路径规划
通过模仿学习输出未来多少帧的一个路径坐标,也有论文对比了各种网络结构如CNN和LSTM或者是CNN和LSTM的组合,CNN和LSTM组合的的模型规划的路径在很多情况下都会更加的平滑而且可行的。
端到端控制
利用图像或者是激光雷达输入直接输出控制命令。如ALVINN。
本文的方法
问题公式化
( . ) ω (.)^\omega (.)ω 为世界坐标系
( . ) b (.)^b (.)b 为机器坐标系
( . ) c (.)^c (.)c 为相机坐标系
( . ) p b (.)^{pb} (.)pb 为二维车身框架投影坐标系,也就是机器坐标系的x-y投影
R b ω , T b ω R^\omega_b , T_b^\omega Rbω,Tbω 分别为机器坐标到世界坐标的旋转和平移矩阵
输入前视图像 I R I_R IR和深度图像 I D I_D ID 即可构造出一个三维的点云空间。而作者认为Z轴对于机器轮椅的路径规划没有影响,所以考虑采用二位的投影面 。
给定一个目标姿态 p g p b p_g^{pb} pgpb
这篇关于[论文笔记]S2P2 Self-Supervised Goal-Directed Path Planning Using RGB-D Data_2021ICRA的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!