具身智能机器人实现新里程碑!新型3D世界模型问世

本文主要是介绍具身智能机器人实现新里程碑!新型3D世界模型问世,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

随着人工智能技术的不断进步,视觉-语言-动作(VLA)模型在机器人控制、自动驾驶、智能助手等领域展现出了广阔的应用前景。这类模型能够将视觉、语言、动作等多模态信息进行融合,实现从感知到决策的端到端学习。然而,现有的VLA模型大多基于二维视觉输入,缺乏对三维物理世界的深入理解和交互能力。此外,它们往往采用从感知到动作的直接映射方式进行决策,忽略了复杂环境动态和行动后果之间的关联。这与人类先建立内在世界模型,再基于想象和预演来规划行动的认知过程存在明显差异。

为了构建更接近人类认知的VLA模型,来自马萨诸塞州大学阿默斯特分校、MIT等机构的提出了3D-VLA,这是一种新型的、具有里程碑式意义的具身基础模型(embodied foundation model),能够通过生成式世界模型无缝连接三维感知、推理和行动!与之前的工作不同,3D-VLA在视觉-语言大模型(VLM)中引入了3D特征,使其能够直接对三维场景进行理解和交互。同时,该模型还具备目标导向的多模态生成能力,能想象未来状态并据此指导动作规划。这一创新框架有望在机器人操控、虚拟助手、元宇宙等场景中得到广泛应用。

论文地址: https://arxiv.org/abs/2403.09631

▍一种新颖的3D视觉-语言-动作生成模型

3D-VLA的核心是建立一个通用的生成式世界模型,将3D感知、推理、预测和规划有机结合。具体而言,该模型以3D-LLM(3D大语言模型)为骨干,通过在其词表中引入一系列交互令牌,如场景、物体、动作等,增强了模型与3D环境互动的能力。在处理输入时,模型先将RGB图像或视频转换为深度图和点云等3D表征,提取关键物体的三维边界框等语义信息。基于这些3D特征,模型能执行空间推理、回答问题、生成目标等多种下游任务。

值得一提的是,3D-VLA还融合了扩散模型来实现多模态目标生成。通过预训练RGB-D到RGB-D、点云到点云的扩散模型,并用对齐器将其与语言编码器的输出对齐,3D-VLA能根据指令灵活地想象未来图像、深度图、点云等表征。相比从高维潜空间采样,这种可控的目标生成方式极大提升了规划的可解释性和针对性。在后续的决策阶段,代理将生成的目标重新输入世界模型,迭代预测和优化行动序列,最终输出可执行的机器人控制指令。

在这里插入图片描述

总的来说,3D-VLA开创了VLA模型与三维世界交互的新范式,使其更贴近真实环境中感知、思考和行动的流程。通过3D感知、多模态推理、目标想象、动作规划的无缝衔接,该模型在建模物理常识、因果关系、时序依赖等方面展现出了初步的类人智能特征。未来,这一具身基础模型有望进一步扩展到实际机器人系统和虚拟人交互中,推动人工智能在环境适应、任务泛化、快速学习等方面的突破。

▍大规模3D具身指令数据集的构建

训练3D-VLA这样大规模的生成式世界模型,离不开海量的多模态数据支持。然而,现有的VLA数据集大多聚焦在视频-文本对上,缺乏精细的3D标注。为此,研究者们从公开的机器人操控、人体-物体交互等数据集中,自动化地提取了丰富的3D-语言-动作三元组。

具体而言,他们先利用ZoeDepth等方法从RGB视频中估计深度信息,将其还原为点云;接着采用基于Grounded-SAM的目标检测模型获取物体的3D边界框;并通过光流估计、遮挡分析等手段从视频中确定关键帧作为子目标。-cloud>等特殊令牌标记图像内容。最终,该团队构建了一个包含200万数据对、涵盖目标检测、动作生成、多模态对齐等10多个任务的3D具身指令数据集。如此规模和质量的数据集,为3D-VLA的训练和评估提供了坚实基础。

在这里插入图片描述

▍交互令牌和扩散模型的引入

传统的VLM主要通过文本和图像特征的交叉注意力实现多模态对齐。为了更好地建模3D环境,3D-VLA在其语言编码器中引入了一系列特殊的交互令牌。例如,用、标记输入的三维场景,用、突出关注的物体,以及用[action]、[/action]标识执行的动作等。这些可解释的令牌使得模型能够灵活地关联3D环境要素,动态地调整注意力机制。此外,为了赋予世界模型目标导向的想象能力,研究者将DDPM、Stable Diffusion等扩散模型的生成范式引入其中。通过在大规模3D数据上预训练从RGB-D到RGB-D、从点云到点云的扩散模型,并学习语言-视觉-动作三者的联合分布,3D-VLA能根据输入的文本指令和环境表征,直接采样生成可感知的未来状态。在推理阶段,该模型还设计了一个对齐器模块,用于在隐空间中动态地对齐扩散解码器和语言编码器的输出。这使得模型能灵活地插入不同形式的subgoal,并自适应地调整输出模态。

在这里插入图片描述

▍实验结果

在模型训练和评估中,研究者在3D-VLA和多个SOTA的VLA基线模型上进行了广泛的实验。一方面,在传统的具身问答、视觉定位、指令生成等理解型任务上,3D-VLA的各项指标都大幅领先于BLIP2、OpenFlamingo等视觉语言模型。以视觉问答为例,3D-VLA在对话式VQA和视觉推理VQA上的TOP-1准确率分别达到了65.8%和59.3%,相比BLIP2提升了4.5%和6.2%。这表明融入三维表征和空间推理能力,能显著提升模型对场景的语义理解。在指令生成任务中,3D-VLA生成的任务描述在流畅性、信息完整性等人工评估维度上也全面超越基线方法。

在这里插入图片描述

另一方面,研究者还设计了一系列新颖的生成型任务来考察3D-VLA的规划和想象能力。在目标深度图生成中,该模型根据输入RGB图像和目标文本,重构出了形状、位置、视角基本正确的深度表征。在机器人动作规划任务中,3D-VLA先根据指令预测3D目标场景,并用此作为subgoal进行路径搜索和运动规划,最终生成可执行的低层控制指令。在三个具身交互数据集上的测试显示,该模型完成任务的成功率达到85%以上,大幅超过了传统的VLA规划算法。

在这里插入图片描述

这些实验结果充分证明了3D-VLA在感知、推理、规划等认知能力上的优势。通过从大规模3D-语言-动作数据中学习物理和语义知识,并将其编码为通用的世界模型,该框架能够在多个应用场景中实现较好的任务迁移和零样本泛化能力。

在这里插入图片描述

▍结语与展望

3D-VLA的提出标志着VLA模型向三维世界迈进了关键一步。通过将视觉-语言大模型与3D表征、扩散生成等前沿技术相结合,该框架初步实现了从3D感知到规划的端到端建模。一方面,模型能理解和推理三维场景,回答空间指令;另一方面,它还能想象目标状态,并用生成的subgoal来指导行动序列的规划。这种高度整合的世界模型极大拓展了VLA的应用边界,为构建更智能、更鲁棒的具身智能体铺平了道路。

当然,3D-VLA仍有不少改进空间。首先,如何在保证语义对齐的前提下,进一步提升3D感知和生成的效果,是一个值得研究的问题。其次,在实际机器人系统中,模型输出的离散动作令牌需要解码为连续控制,这需要与运动规划等模块进行更紧密的适配。此外,3D-VLA还需要在更大规模、更多样化的数据集上进行训练,以增强知识的丰富性和鲁棒性。

展望未来,3D-VLA有望在更多垂直领域得到应用和创新。在家庭服务机器人中,该模型可作为高层控制器,感知、推理家居环境,并规划执行日常家务。在工业无人机巡检等任务中,3D-VLA可根据用户指令,自主地对关键部件进行定位、检测和分析。在虚拟助理和元宇宙场景中,具备三维世界模型的对话代理将能提供更自然、更具情境感知力的交互体验。总的来说,3D-VLA代表了VLA模型发展的新方向,虽然尚处于起步阶段,但其在机器人、智能助理、虚拟现实等领域已初现广阔的应用前景。相信随着技术的不断进步,这一赋予机器以三维想象力的框架,将为人机协作开辟更多可能。

这篇关于具身智能机器人实现新里程碑!新型3D世界模型问世的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/879845

相关文章

C++对象布局及多态实现探索之内存布局(整理的很多链接)

本文通过观察对象的内存布局,跟踪函数调用的汇编代码。分析了C++对象内存的布局情况,虚函数的执行方式,以及虚继承,等等 文章链接:http://dev.yesky.com/254/2191254.shtml      论C/C++函数间动态内存的传递 (2005-07-30)   当你涉及到C/C++的核心编程的时候,你会无止境地与内存管理打交道。 文章链接:http://dev.yesky

轻量级在线服装3D定制引擎Myway简介

我写的面向web元宇宙轻量级系列引擎中的另外一个,在线3D定制引擎Myway 3D。 用于在线商品定制,比如个性化服装的定制、日常用品(如杯子)、家装(被套)等物品的在线定制。 特性列表: 可更换衣服款式,按需定制更换模型可实时更改材质颜色可实时添加文本,并可实时修改大小、颜色和角度,支持自定义字体可实时添加艺术图标,并可实时修改大小、颜色和角度,支持翻转、各种对齐可更改衣服图案,按需求定制

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

通过SSH隧道实现通过远程服务器上外网

搭建隧道 autossh -M 0 -f -D 1080 -C -N user1@remotehost##验证隧道是否生效,查看1080端口是否启动netstat -tuln | grep 1080## 测试ssh 隧道是否生效curl -x socks5h://127.0.0.1:1080 -I http://www.github.com 将autossh 设置为服务,隧道开机启动

时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测

时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测 目录 时序预测 | MATLAB实现LSTM时间序列未来多步预测-递归预测基本介绍程序设计参考资料 基本介绍 MATLAB实现LSTM时间序列未来多步预测-递归预测。LSTM是一种含有LSTM区块(blocks)或其他的一种类神经网络,文献或其他资料中LSTM区块可能被描述成智能网络单元,因为

vue项目集成CanvasEditor实现Word在线编辑器

CanvasEditor实现Word在线编辑器 官网文档:https://hufe.club/canvas-editor-docs/guide/schema.html 源码地址:https://github.com/Hufe921/canvas-editor 前提声明: 由于CanvasEditor目前不支持vue、react 等框架开箱即用版,所以需要我们去Git下载源码,拿到其中两个主

android一键分享功能部分实现

为什么叫做部分实现呢,其实是我只实现一部分的分享。如新浪微博,那还有没去实现的是微信分享。还有一部分奇怪的问题:我QQ分享跟QQ空间的分享功能,我都没配置key那些都是原本集成就有的key也可以实现分享,谁清楚的麻烦详解下。 实现分享功能我们可以去www.mob.com这个网站集成。免费的,而且还有短信验证功能。等这分享研究完后就研究下短信验证功能。 开始实现步骤(新浪分享,以下是本人自己实现

基于Springboot + vue 的抗疫物质管理系统的设计与实现

目录 📚 前言 📑摘要 📑系统流程 📚 系统架构设计 📚 数据库设计 📚 系统功能的具体实现    💬 系统登录注册 系统登录 登录界面   用户添加  💬 抗疫列表展示模块     区域信息管理 添加物资详情 抗疫物资列表展示 抗疫物资申请 抗疫物资审核 ✒️ 源码实现 💖 源码获取 😁 联系方式 📚 前言 📑博客主页:

探索蓝牙协议的奥秘:用ESP32实现高质量蓝牙音频传输

蓝牙(Bluetooth)是一种短距离无线通信技术,广泛应用于各种电子设备之间的数据传输。自1994年由爱立信公司首次提出以来,蓝牙技术已经经历了多个版本的更新和改进。本文将详细介绍蓝牙协议,并通过一个具体的项目——使用ESP32实现蓝牙音频传输,来展示蓝牙协议的实际应用及其优点。 蓝牙协议概述 蓝牙协议栈 蓝牙协议栈是蓝牙技术的核心,定义了蓝牙设备之间如何进行通信。蓝牙协议