本文主要是介绍【点云阅读笔记】LEARNING CONVOLUTIONAL TRANSFORMS FOR LOSSY POINT CLOUD GEOMETRY COMPRESSION,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
阅读报告——LEARNING CONVOLUTIONAL TRANSFORMS FOR LOSSY POINT CLOUD GEOMETRY COMPRESSION
Worth noticing in Introduction
质量评价衡量:
D1 and D2
D1:计算重建点和K近邻之间的MSE
D2:计算重建点和超平面之间的MSE
Main Idea
- 对于基于传统八叉树模型的方法,它在降低比特流时,其点的数量会指数下降;
- 通过将点云几何体解释为在体素网格上定义的二进制信号,我们将解码转换为对给定体素是否被占用进行分类的问题。
- 使用3D自动编码器压缩点云几何体:经典的压缩方法使用手工制作的变换,但我们直接从数据中学习过滤器。
- 综合考虑了在训练中的量化(Quantization)和率失真(Rate-distortion,RD)
创新点
- 将图像压缩中的二维卷积换成了适合点云的三维卷积
- 将原始点云转换成体素网格(尺寸为 长x宽x高 的数组,值为0或1,分别代表该座标上是否存在点),即将问题转化成一个二分类的问题
模型
f a f_a fa := 找寻潜在的表示 y = f a ( x ) y=f_a(x) y=fa(x)。
Q Q Q := 量化函数。
f s f_s fs := 解压缩表示 x ^ = v ^ S = f s ( y ^ ) \hat{x}=\hat{v}_{S}=f_{s}(\hat{y}) x^=v^S=fs(y^)。
传统的编码过程需要经过几何编码——几何量化——几何熵编码的三个过程。在此,这里的 f a f_a fa充当了编码角色。但是与传统的几何编码不同,传统几何编码是通过一些变换(如DCT变换,将数据从时空域转到频率域上来);这里的是用卷积进行变换。
原文中这里所使用的量化处理同Variational Image Compression With A Scale Hyperprior所使用的一致。这里的量化idea并非直接处理原始数据,而是量化其潜在表示。也就是这里的 y y y。这里使用的是Deflate算法。
在解码过程中,作者将其视为一个二分类问题:即对于每一个在体素网格上的点 z ∈ Ω z\in \Omega z∈Ω,观察其是否存在。做法是将 x ^ = v ^ S \hat{x}=\hat{v}_{S} x^=v^S分解到各自的体素 z z z中,对应有一个关联值 p z p_z pz。 p z p_z pz反映了与ground truth即类别 y y y的接近程度,值越大,则说明越接近类别 y y y,即分类越准确。
而且,因为点云是稀疏的(无论有多dense),因此,对于一个点在不在某一个体素上的问题, v s ( z ) v_s(z) vs(z)一般都是0。用 α x \alpha_x αx来补偿。因此,定义focal loss如下:
F L ( p z t ) = − α z ( 1 − p z t ) γ log ( p z t ) F L\left(p_{z}^{t}\right)=-\alpha_{z}\left(1-p_{z}^{t}\right)^{\gamma} \log \left(p_{z}^{t}\right) FL(pzt)=−αz(1−pzt)γlog(pzt)
其中,
p z t = { p z if y = 1 1 − p z otherwise p_{z}^t=\left\{\begin{array}{lr}p_z & \text { if } y=1 \\1-p_z & \text { otherwise }\end{array}\right. pzt={pz1−pz if y=1 otherwise
F L ( x ~ ) = ∑ z ∈ S F L ( p z t ) F L(\tilde{x})=\sum_{z \in S} F L\left(p_{z}^{t}\right) FL(x~)=z∈S∑FL(pzt)
最终的损失是利用 L = λ D + R L=\lambda D + R L=λD+R; D D D是用上面的focal loss计算的失真,R是bpov(bits per input occupied voxel)。
这篇关于【点云阅读笔记】LEARNING CONVOLUTIONAL TRANSFORMS FOR LOSSY POINT CLOUD GEOMETRY COMPRESSION的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!