3D 论文阅读 PointContrast: Unsupervised Pre-training for 3D Point Cloud Understanding简记

本文主要是介绍3D 论文阅读 PointContrast: Unsupervised Pre-training for 3D Point Cloud Understanding简记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

PointContrast: Unsupervised Pre-training for 3D Point Cloud Understanding

    • 摘要
    • PointContrast Pre-training
    • 实验结果

摘要

简单记一下Charles R. Qi的新作 PointContrast: Unsupervised Pre-training for 3D Point Cloud Understanding。点云的无监督的对比学习作为预训练以提升下游任务的性能。文章使用 连体的网络结构、原始数据和预训练对比损失。6个不同的数据集(室内外,分割、检测,真实、合成)上都表现出学习的特征表示可以跨域泛化。

在2D图像方面,在大尺度的数据集(ImageNet)上进行预训练能够增强模型的表达能力。近年来,无监督的预训练也显示出接近甚至超越监督预训练的性能。3D方面存在的问题的原因是:
1)三维数据更难采集,标签标注更加困难,以及各种传感设备可能引入较大的域差异;
2)没有统一的backbone
3)没有更全面的数据集和更高阶的任务评估。
因此,需要做的主要工作包括:1)选择一个大的数据集进行预训练,2)明确一个backbone,3)无监督的损失函数,4)下游任务的评估方案。

PointContrast Pre-training

在这里插入图片描述
之所以效果不好的原因是:ShapeNet合成单目标点云模型和S3DIS之间存在较大的域差异性;实例级的预训练用在场景上效果也不会好。

本文的主要思路可以为:
在这里插入图片描述

使用FCGF作为backbone, 一个点云生成两个视角的子点云,计算他们的匹配图(具有相同的实际坐标),将子点云进行刚性变换,网络获取两个子点云每个点的特征向量。对匹配上的点计算匹配损失。
损失函数:
Hardest-Contrastive Loss,(匹配点特征之间的距离应该小,非匹配点之间距离尽可能大。)
在这里插入图片描述
Hardest-Contrastive Loss比较难训练,PointInfoNCE:将对比损失转化为分类损失,本文认为至少存在一个匹配,将除了当前匹配点的集合作为负样本集,没有考虑增加额外的非匹配的点作为负样本。
在这里插入图片描述

实验结果

Sparse Residual U-Net (SR-UNet) architecture和 在ScanNet基础上构造数据集预训练模型,然后迁移下游任务作为网络初始值进行fine-turning。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

这篇关于3D 论文阅读 PointContrast: Unsupervised Pre-training for 3D Point Cloud Understanding简记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1047629

相关文章

无人叉车3d激光slam多房间建图定位异常处理方案-墙体画线地图切分方案

墙体画线地图切分方案 针对问题:墙体两侧特征混淆误匹配,导致建图和定位偏差,表现为过门跳变、外月台走歪等 ·解决思路:预期的根治方案IGICP需要较长时间完成上线,先使用切分地图的工程化方案,即墙体两侧切分为不同地图,在某一侧只使用该侧地图进行定位 方案思路 切分原理:切分地图基于关键帧位置,而非点云。 理论基础:光照是直线的,一帧点云必定只能照射到墙的一侧,无法同时照到两侧实践考虑:关

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

2014 Multi-University Training Contest 8小记

1002 计算几何 最大的速度才可能拥有无限的面积。 最大的速度的点 求凸包, 凸包上的点( 注意不是端点 ) 才拥有无限的面积 注意 :  凸包上如果有重点则不满足。 另外最大的速度为0也不行的。 int cmp(double x){if(fabs(x) < 1e-8) return 0 ;if(x > 0) return 1 ;return -1 ;}struct poin

2014 Multi-University Training Contest 7小记

1003   数学 , 先暴力再解方程。 在b进制下是个2 , 3 位数的 大概是10000进制以上 。这部分解方程 2-10000 直接暴力 typedef long long LL ;LL n ;int ok(int b){LL m = n ;int c ;while(m){c = m % b ;if(c == 3 || c == 4 || c == 5 ||

2014 Multi-University Training Contest 6小记

1003  贪心 对于111...10....000 这样的序列,  a 为1的个数,b为0的个数,易得当 x= a / (a + b) 时 f最小。 讲串分成若干段  1..10..0   ,  1..10..0 ,  要满足x非递减 。  对于 xi > xi+1  这样的合并 即可。 const int maxn = 100008 ;struct Node{int

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

MiniGPT-3D, 首个高效的3D点云大语言模型,仅需一张RTX3090显卡,训练一天时间,已开源

项目主页:https://tangyuan96.github.io/minigpt_3d_project_page/ 代码:https://github.com/TangYuan96/MiniGPT-3D 论文:https://arxiv.org/pdf/2405.01413 MiniGPT-3D在多个任务上取得了SoTA,被ACM MM2024接收,只拥有47.8M的可训练参数,在一张RTX

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已