基于PointNet / PointNet++深度学习模型的激光点云语义分割

2024-06-15 04:20

本文主要是介绍基于PointNet / PointNet++深度学习模型的激光点云语义分割,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、场景要素语义分割部分的文献阅读笔记

1.1 PointNet

        PointNet网络模型开创性地实现了直接将点云数据作为输入的高效深度学习方法(端到端学习)。最大池化层、全局信息聚合结构以及联合对齐结构是该网络模型的三大关键模块,最大池化层解决了点云的无序性问题,全局信息聚合结构实现了点云不同层次特征信息和全局信息的融合,联合对齐结构保证了点云几何变换的语义不变性与特征空间的对齐。

图一  PointNet网络模型结构图(图源:/*1*/ PointNet

1.2 PointNet++

PointNet++网络模型的三大重要部分:

(1)多层次点集特征学习模块

        多层次点集特征学习模块由多个点集抽象层堆叠组成,点集抽象层包含采样单元、分组单元和简化PointNet单元。点集抽象层的作用是将输入点云采样成多个点子集并提取对应的特征作为输入点云的局部特征,而堆叠多个点集抽象层是为了获得多层次高维特征。

        点集抽象层,首先采用最远点采样算法(Farthest Point Sampling,FPS)完成局部区域中心点集的选择以保证中心点集能够基本覆盖局部区域范围并且特征提取计算高效。然后,基于中心点集依据设定的搜索半径逐点进行球邻域查询以对局部区域点云进行分组。最后,利用简化PointNet单元(不对输入数据进行联合对齐)抽象分组局部点云的整体性特征,计算获得对应特征向量。

(2)基于非均匀密度采样的稳定特征提取

        点云在不同区域的密度不均匀现象十分常见。为减少点云密度不均匀对点集抽象层造成的影响,密度自适应PointNet层被应用于点集抽象层中,其方法分为多尺度组合(Multi-scale grouping,MSG)和多分辨率组合(Multi-resolution grouping,MRG)。多尺度组合,即设置不同的邻域搜索半径进行局部点云聚组,然后根据简化PointNet单元提取每个尺度的特征并串联拼接为特征向量;多分辨率组合,即首先直接对低层级点云利用点集抽象层提取特征,然后基于点集抽象层抽象出来的高层集点云再直接利用简化PointNet单元提取特征,继而将两者提取出来的特征进行串联拼接。

(3)语义分割任务的点特征传播模块

        在语义分割任务中,需要获得所有原始点云的特征,然而在多层次点集特征学习模块的作用下点云被抽象成了多个中心点集,因此需要将点云恢复为原始数量。点特征传播模块采用反距离权重法插值出当前层采样前的所有点的分层特征。另外,为了减少采样和插值过程中的细节损失,使用跨层跳跃链接操作将当前插值得到的特征与对应的点集抽象层进行融合。再者,为减少运算量并增强网络的非线性拟合能力,需要通过简化PointNet单元降低特征维度。反距离权重法插值和简化PointNet单元需要组合使用至恢复点云原始数量。

图二 PointNet++网络模型结构图(图源:/*2*/ PointNet++

二、Pytorch深度学习框架/Numpy使用记录

2.1 探索torch.nn.Conv1d与torch.nn.Conv2d的区别

        由图三和图四可知,二者In_Channels/out_Channels均为比卷积维度高一维度的通道数值。torch.nn.Conv2d常配合Tensor.permute使用完成对邻域点集的特征提取。当使用Tensor.permute将特征维C(或D)交换到第三维度的时候,即可利用torch.nn.Conv2d提取邻域点集特征。

图三 卷积核大小均为一的一维卷积和二维卷积区别实验
图四 pytorch中Conv1d、Conv2d与Conv3d过程可视化(图源:CSDN-智慧医疗探索者[7])

2.2 探索torch.max与torch.amax的区别

       由图五和图六可知,两函数参数dim=-1(等同dim=矩阵最大维度数-1)意味着以矩阵的行为比较单位提取最大值。对于两函数的主要区别在于,torch.max的返回值包含对应最大值(返回值[0])与位置索引(返回值[1]),而torch.amax仅返回对应最大值。

图五 Pytorch深度学习框架下max和amax函数区别实验
图六  torch.max/min和torch.amax/amin的区别( 图源:pytorch.org)

2.3 探索Tensor广播机制特性

        由图七可知,在运用Tensor广播机制特性之对应元素赋值的时候,需要传入与被操作Tensor同样形状的布尔Tensor。值得注意的是,Tensor间的赋值需要保证Tensor的dtype(数据类型)一致。

图七 Tensor广播机制特性实验

2.4 探索Tensor.reshape Tensor.view的区别

        通常两函数用于调整Tensor的形状以满足广播计算要求、数据维度调整等。详见参考资料[9],该博客讲述十分详细深入。

2.5 探索Tensor的高级索引方式和切片

        绝大多数操作并不修改Tensor的数据,只是修改了Tensor的头信息。这种做法更节省内存,同时提升了处理速度。此外,有些操作(如view等)会导致Tensor不连续,这时需调用Tensor.contiguous方法将它们变成连续的数据,该方法复制数据到新的内存,不再与原来的数据共享storage。一般来讲,高级索引(花式、整形数组等索引)不共享storage,而普通索引共享storage[11-12]

        关于Tensor存储头属性的查阅可以参考torch.Tensor — PyTorch 2.2 documentation,共享内存Tensor头文件可参考图八,针对Tensor连续性的基础理解可参考从 Pytorch tensor 存储空间的连续性 (contiguous) 说到 4D tensor 的存储格式 (memory_format)_pytorch修改tensor的memoryformat-CSDN博客。

图八 Tensor的共享内存图示(图源:wohu007[11])

        由图九、图十以及图十一可知,Tensor的高级索引,若以单独索引号取值,则会破坏Tensor原始维度数量(丢失一个维度),若以分割表达(n:n+1),则维度数量与原始Tensor一致。

图九 针对Tensor的高级索引切片([])实验 
图十 Tensor/ndarray的高级索引测试
图十一 Tensor/ndarray的高级索引测试

2.6 探索np.where的使用方法

        通过图十二可知,若np.where()函数仅传入实参condition,则函数返回condition_array符合条件的元素索引(一维返回一维索引向量,二维返回二维索引矩阵,三维返回三维索引张量);若需要返回符合条件的所有元素值,则需要传入三个参数(condition、array、不符合条件的修正值(对应修正向量/矩阵/张量))。

        可以利用&(按位与)、|(按位或)位运算进行多条件判断,需保证多个condition_array的形状一致。

图十二 np.where(condition)和np.where(condition,data,修改值)实验

#Pytorch深度学习框架

torch.transpose(input,dim0,dim1)——>Tensor

# 转置Tensor指定的两个维度

Tensor.permute(*dims)——>Tensor

torch.permute(input,dims)——>Tensor

# 返回原始张量输入的视图,并对其维度进行转置。这里返回视图指的是一个新的tensor对象,但新旧tensor对象内的数据共享存储(即数据元素是相同的),返回的新对象可能会变得不连续,这样就无法对新对象使用view方法

class torch.nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None)

# 1D卷积主要用于文本/语音数据[8],仅对W维进行卷积(Input:(N,C,D,H,W))

class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None)

# 2D卷积常用于图像数据[8],对H维、W维同时卷积(Input:(N,C,D,H,W))

class torch.nn.Conv3d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None)

# 3D卷积常用于医学影像图像分割、视频中的动作检测[8]以及序列时序检测等,对D维、H维、W维同时卷积(Input:(N,C,D,H,W))

torch.amax(input, dim, keepdim=False, *, out=None) → Tensor

# 返回对应dim维比较的最大值values

torch.max(input, dim, keepdim=False, *, out=None) → Tensor

# 返回对应dim维比较的最大值和最大值位置索引(values,indices)

Tensor.reshape(*shape) → Tensor

Tensor.view(*shape) → Tensor

# 返回一个特定形状、数据内容相同的张量[9]。由于Tensor.view函数无法使用于不连续的Tensor,因此,在编码时尽可能使用Tensor.reshape(*shape)

Tensor.repeat(*sizes) ——> Tensor

sizes(torch.Size or int)

# 对张量进行重复扩充,sizes参数个数必须大于等于输入张量维度个数[10]。值得注意的是,sizes参数的重复维度顺序从高维向低维(从左到右)

torch.sort(input,dim=-1,descending=False,stable=False,*,out=None)

# A namedtuple of (values, indices) is returned, where the values are the sorted values and indices are the indices of the elements in the original input tensor.

Tensor.contiguous(memory_format=torch.contiguous_format)—>Tensor

# Returns a contiguous in memory tensor containing the same data as self tensor. If self tensor is already in the specified memory format, this function returns the self tensor.

# Numpy

np.save(file, arr, allow_pickle=True, fix_imports=True)

np.load(file, mmap_mode=None, allow_pickle=False, fix_imports=True, encoding=‘ASCII’)

# 写读磁盘多维数组数据的两个主要函数,默认情况下,数组是以未压缩的原始二进制格式保存在拓展名为.npy的文件中[10]

np.savetxt(fname, X, fmt=’%.18e’, delimiter=’ ‘, newline=’\n’, header=’’, footer=’’, comments=’# ‘, encoding=None)

np.loadtxt(fname, dtype=<class ‘float’>, comments=’#’, delimiter=None, converters=None, skiprows=0, usecols=None, unpack=False, ndmin=0, encoding=‘bytes’, max_rows=None)

# 写读一维/二维数组的文本文件,同时可以指定各种分割符、针对特定列的转换器函数、需要跳过的行数等(可用于.txt及.csv文件)

np.where(condition,[x,y,]/)

condition:array_like,bool;x,y:array_like

# 返回符合特定条件的元素与修改不符合条件的元素值(单独condition条件则返回对应索引)

三、PointNet / PointNet++点云语义分割项目代码逐行解析

百度网盘链接:

https://pan.baidu.com/s/1XDQ6qkdm8Hg9r6mUwIKJ3w

模型测试结果可视化:

电力廊道场景应用下的文件结构说明

① 电力档段激光点云数据存储格式

        电力档段激光点云数据文件存储格式为.txt,每个激光点包含七个属性,分别为三维空间坐标XYZ、颜色RGB和要素类别标签,其中属性间利用空格隔开。电力档段激光点云不包含地面点。

② 电力档段要素类别划分

        电力档段要素类别划分为七类,分别为电力铁塔、导线、分裂线、绝缘子、跳线、建筑物和植被。通常类别标签定义从0开始连续递增,如[0,6]。

③ Pointnet_Pointnet2_pytorch\data_utils\meta

        该文件夹包含anno_pathsclass_names两个.txt文件,用于要素类别标签赋值。其中,anno_paths.txt存储电力档段区域的各要素点云集合文件夹名(如Area_0/Annotations),class_names.txt存储电力档段的语义分割要素类别名称。

④ Pointnet_Pointnet2_pytorch\data\GD_Parts\parts

        该文件夹存放所有.txt格式电力档段点云数据和由DP_txtDatasetCreator.py生成的S3DIS Dataset文件树的电力档段点云数据。

⑤ Pointnet_Pointnet2_pytorch\data\GD_Parts3D 

        该文件夹存放由collect_indoor3d_data.py预处理生成的.npy格式的电力档段点云数据。目的在于numpy库的.npy格式数据读取效率高。

⑥ Pointnet_Pointnet2_pytorch\log\sem_seg\日志名\visual

        该文件夹存储.txt格式的预测点云数据的类别标签列以及.obj格式的点云数据,.obj格式点云可以利用MeshLab软件可视化。其中,日志名若未设定,则默认为时间戳(如2024-04-06_17-28)。

⑦ Pointnet_Pointnet2_pytorch\log\sem_seg\日志名\checkpoints

        该文件夹存放最佳训练模型权重参数,文件后缀名为.pth。

⑧ Pointnet_Pointnet2_pytorch\log\sem_seg\日志名\logs

        该文件夹存放训练日志,包含每一个Epoch训练后对验证集数据的精度评价结果等。

⑨Pointnet_Pointnet2_pytorch\TXTpreds

        该文件夹存放由predTxtCreator.py生成的类别标签预测后的.txt点云数据,包含三维空间坐标XYZ、颜色RGB和预测类别标签。

注意事项:

1、本百度网盘不包含任何点云数据,仅为项目代码;

2、电力档段激光点云数据文件依照S3DIS Dataset文件树结构转换构建(该过程非必要),目的在于可以直接根据GitHub原项目流程进行训练。若直接对电力档段激光点云数据进行.npy格式转化,考虑要素类别标签的对应即可;

3、对于PointNet / PointNet++语义分割模型应用于大规模、大范围场景的瓶颈,可以通过场景分块依据场景点云密度和范围大小调节训练超参数(如采样区域大小block_size球查询半径radius测试采样网格区域滑动步长stride)以进行训练。

参考资料:

[1] GitHub - yanx27/Pointnet_Pointnet2_pytorch: PointNet and PointNet++ implemented by pytorch (pure python) and on ModelNet, ShapeNet and S3DIS.

[2] PointNet与PointNet++ · 语雀

[3] 基于PyTorch实现PointNet++ - 知乎

[4] 第三章_Pointnet++项目实战 1-项目文件概述_哔哩哔哩_bilibili

[5] PointNet代码详解_pointnet代码解读-CSDN博客

[6] 4 PointNet++点云处理原理_哔哩哔哩_bilibili

[7] 最全PointNet和PointNet++要点梳理总结-CSDN博客

[8] pytorch中Conv1d、Conv2d与Conv3d详解-CSDN博客

[9] PyTorch:view() 与 reshape() 区别详解_pytorch view reshape-CSDN博客

[10] Pytorch中torch.repeat()函数解析-CSDN博客

[11] PyTorch 笔记(11)— Tensor内部存储结构(头信息区 Tensor,存储区 Storage)_tensor.untyped_storage()-CSDN博客

[12] 2.4 Tensor的存储_用tensor存储采集的数据-CSDN博客

PointNet系列发表论文

/*1*/ PointNet

 https://arxiv.org/abs/1612.00593

/*2*/ PointNet++

https://proceedings.neurips.cc/paper_files/paper/2017/file/d8bf84be3800d12f74d8b05e9b89836f-Paper.pdf

S3DIS Dataset—实验测试数据

Large Scale Parsing

深度学习点云场景语义分割项目工程化外部库

/**1**/ Argparse 教學 — Python 3.12.2 說明文件(命令行剖析)

/**2**/ 如何使用 Logging 模組 — Python 3.12.2 說明文件(日志记录,检查运行过程中是否有特定的事件发生)

/**3**/ tqdm · PyPI(快速、可拓展的进度条设计)

/**4**/ shutil — 高階檔案操作 — Python 3.12.2 說明文件(对文件和文件集合的高阶操作)

/**5**/ numpy.load — NumPy v1.26 Manual(大数据量运算快速存储读取)

/**6**/ API reference — pandas 2.2.1 documentation (对表格数据的快速读取及清洗处理)

/**7**/ torch — PyTorch 2.2 documentation(Pytorch深度学习框架使用文档)

 /**8**/ https://github.com/INTERMT/Awesome-PyTorch-Chinese?tab=readme-ov-file(Pytorch实战教程)

这篇关于基于PointNet / PointNet++深度学习模型的激光点云语义分割的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1062413

相关文章

51单片机学习记录———定时器

文章目录 前言一、定时器介绍二、STC89C52定时器资源三、定时器框图四、定时器模式五、定时器相关寄存器六、定时器练习 前言 一个学习嵌入式的小白~ 有问题评论区或私信指出~ 提示:以下是本篇文章正文内容,下面案例可供参考 一、定时器介绍 定时器介绍:51单片机的定时器属于单片机的内部资源,其电路的连接和运转均在单片机内部完成。 定时器作用: 1.用于计数系统,可

问题:第一次世界大战的起止时间是 #其他#学习方法#微信

问题:第一次世界大战的起止时间是 A.1913 ~1918 年 B.1913 ~1918 年 C.1914 ~1918 年 D.1914 ~1919 年 参考答案如图所示

[word] word设置上标快捷键 #学习方法#其他#媒体

word设置上标快捷键 办公中,少不了使用word,这个是大家必备的软件,今天给大家分享word设置上标快捷键,希望在办公中能帮到您! 1、添加上标 在录入一些公式,或者是化学产品时,需要添加上标内容,按下快捷键Ctrl+shift++就能将需要的内容设置为上标符号。 word设置上标快捷键的方法就是以上内容了,需要的小伙伴都可以试一试呢!

AssetBundle学习笔记

AssetBundle是unity自定义的资源格式,通过调用引擎的资源打包接口对资源进行打包成.assetbundle格式的资源包。本文介绍了AssetBundle的生成,使用,加载,卸载以及Unity资源更新的一个基本步骤。 目录 1.定义: 2.AssetBundle的生成: 1)设置AssetBundle包的属性——通过编辑器界面 补充:分组策略 2)调用引擎接口API

Javascript高级程序设计(第四版)--学习记录之变量、内存

原始值与引用值 原始值:简单的数据即基础数据类型,按值访问。 引用值:由多个值构成的对象即复杂数据类型,按引用访问。 动态属性 对于引用值而言,可以随时添加、修改和删除其属性和方法。 let person = new Object();person.name = 'Jason';person.age = 42;console.log(person.name,person.age);//'J

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

大学湖北中医药大学法医学试题及答案,分享几个实用搜题和学习工具 #微信#学习方法#职场发展

今天分享拥有拍照搜题、文字搜题、语音搜题、多重搜题等搜题模式,可以快速查找问题解析,加深对题目答案的理解。 1.快练题 这是一个网站 找题的网站海量题库,在线搜题,快速刷题~为您提供百万优质题库,直接搜索题库名称,支持多种刷题模式:顺序练习、语音听题、本地搜题、顺序阅读、模拟考试、组卷考试、赶快下载吧! 2.彩虹搜题 这是个老公众号了 支持手写输入,截图搜题,详细步骤,解题必备

《offer来了》第二章学习笔记

1.集合 Java四种集合:List、Queue、Set和Map 1.1.List:可重复 有序的Collection ArrayList: 基于数组实现,增删慢,查询快,线程不安全 Vector: 基于数组实现,增删慢,查询快,线程安全 LinkedList: 基于双向链实现,增删快,查询慢,线程不安全 1.2.Queue:队列 ArrayBlockingQueue:

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

硬件基础知识——自学习梳理

计算机存储分为闪存和永久性存储。 硬盘(永久存储)主要分为机械磁盘和固态硬盘。 机械磁盘主要靠磁颗粒的正负极方向来存储0或1,且机械磁盘没有使用寿命。 固态硬盘就有使用寿命了,大概支持30w次的读写操作。 闪存使用的是电容进行存储,断电数据就没了。 器件之间传输bit数据在总线上是一个一个传输的,因为通过电压传输(电流不稳定),但是电压属于电势能,所以可以叠加互相干扰,这也就是硬盘,U盘