【具身智能】RT-2:视觉-语言-动作模型(VLA)

2024-01-27 09:40

本文主要是介绍【具身智能】RT-2:视觉-语言-动作模型(VLA),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 前言
  • 一、视觉-语言-动作(VLA)模型
  • 二、利用 VLM 控制机器人
  • 三、实验
  • 四、 Demo
  • 五、总结


在这里插入图片描述

前言

Robotic Transformer 2(RT-2)是由谷歌 DeepMind 新推出的大语言模型,它为人类提供了通过纯语言命令来优化机器人控制的能力。与此前的大模型不同,RT-2是一种新型的视觉-语言-动作(VLA)模型,它可以从网络和机器人数据中学习,并将这些知识转化为机器人控制的通用指令,帮助机器人在现实环境中完成各种复杂任务,同时提高机器人的适应性和判断推理能力。

高容量的视觉-语言模型(VLM)是在网络规模的数据集上训练的,使得这些系统在识别视觉或语言模式并跨越不同语言方面表现出色。但是,为了使机器人达到类似的能力水平,它们需要首先收集机器人数据,涵盖每个对象、环境、任务和情况。

在RT-2的论文(https://robotics-transformer2.github.io/assets/rt2.pdf)中,作者介绍了这种新型的VLA模型,它可以从网络和机器人数据中学习,并将这些知识转化为机器人控制的通用指令。这种模型不仅保留了网络规模的能力,还可以让机器人在没有先前经验的情况下进行学习和控制。这是一项重要的进步,因为它可以使机器人更加灵活和适应不同的环境和任务。


一、视觉-语言-动作(VLA)模型

Robotic Transformer 2(RT-2)是建立在 Robotic Transformer 1(RT-1)基础上的,这是一个经过多任务演示训练的模型,可以学习机器人数据中看到的任务和对象的组合。RT-2 使用了 RT-1 的演示数据,这些数据是由 13 个机器人在办公室、厨房环境中收集的,历时 17 个月。
在这里插入图片描述

RT-2展示了超越其所接触的机器人数据的泛化能力以及语义和视觉理解能力。这包括解释新命令并通过执行基本推理(例如关于对象类别或高级描述的推理)来响应用户命令。该模型甚至能够使用思维链提示,使其能够执行多阶段的语义推理,,比如找出哪个物体可以临时代替锤子(一块石头)、哪种饮料最适合疲惫的人 (能量饮料)。


二、利用 VLM 控制机器人

RT-2模型基于VLM,接受一个或多个图像作为输入,并生成一系列标记,通常代表自然语言文本。这种类型的VLM已经在处理大规模网络数据方面取得了成功,用于执行视觉问答、图像字幕、对象识别等任务。研究员依靠Pathways Language and Image model(PaLI-X)和Pathways Language model Embodied(PaLM-E)作为RT-2的核心支持。

要实现机器人的控制,则必须训练它以输出动作。为了解决这一挑战,研究员将操作表示为标记(类似于语言标记)在模型输出中,将操作描述为可以由标准自然语言标记生成器处理的字符串,如下所示:

在这里插入图片描述
基于PaLI-X和PaLM-E模型的独特标记方案,我们为动作表示保留了特定的token。机器人的动作以文本字符串形式呈现,这些字符串可以是机器人动作令牌编号的序列,例如[1 128 91 241 5 101 127 217]。这些标记依次表示机器人任务的继续或结束、末端执行器的六自由度位置和旋转位移以及夹持器的使用情况。

通过这种表示方式,我们能够直接微调现有的视觉-语言模型,并将其转换成视觉-语言-动作模型。

在推理过程中,文本token被分解为机器人动作,从而实现了闭环控制。
在这里插入图片描述
在这里插入图片描述


三、实验

研究人员在 RT-2 模型上进行了超过6000次的机器人评估试验,以评估RT-2模型的性能和能力。

RT-2在语义理解和基本推理方面的性能展示在下图中。例如,在任务“把草莓放进正确的碗里”中,RT-2需要理解草莓和碗的表征,并在场景上下文中进行推理,以确定草莓应该与相似的水果放在一起。而在任务“拾起即将从桌子上掉下来的袋子”中,RT-2需要理解袋子的物理属性,以消除两个袋子之间的歧义并识别处于不稳定位置的物体。

需要注意的是,所有这些场景中测试的交互过程在机器人数据中从未出现过。
在这里插入图片描述

为了评估 RT-2 的性能,研究员将它们评估指标分类为:符号理解、推理和人类识别,并评估 RT-2 的两个变体:
RT-2 在PaLM-E(12B 参数)之上进行训练,
RT-2 在PaLI-X之上进行训练(55B 参数)

下图表明在设定的评估指标测试上,RT-2 模型优于之前的 RT-1 和视觉预训练 (VC-1) 基线。
在这里插入图片描述
下图表明的 RT-2 模型的泛化能力也有大约2倍的提升。
在这里插入图片描述
为了更好地理解 RT-2 的不同设计选择如何影响泛化结果,研究员消除了两个最重要的设计决策:

  • 模型尺寸:RT-2 PaLI-X 变体的 5B 与 55B,
  • 训练策略:从头开始训练模型、微调、协同微调。

下面的结果表明了视觉语言模型预训练权重的重要性以及模型泛化能力随着模型大小而提高的趋势。

在这里插入图片描述
另外研究员还在开源语言表基准表上评估 RT-2 ,通过模拟和真实语言表数据来训练 RT-2。除了在模拟基准上实现最先进的结果(90% vs 之前 SoTA 的 77%)之外,我们还在现实世界中评估了生成的模型。我们用以前在语言表数据集中从未见过的对象(例如番茄酱瓶、香蕉等)演示了 RT-2 的泛化能力:
在这里插入图片描述
在这里插入图片描述


四、 Demo

Robotic Transformer 2 (RT-2)|2023【谷歌DeepMind】

谷歌RT-2机器人新AI霸主

五、总结

总的来说,RT-2模型代表了机器人控制领域的一大突破。它将互联网规模的视觉-语言模型的强大知识与机器人控制任务相融合,为我们带来了令人瞩目的进展。这一方法在泛化能力、语义理解以及推理方面都有显著提升,为未来机器人的发展开辟了新的前景。这些更为先进和适应性更强的机器人将能够在各种复杂的现实环境中执行各种任务,从而为人工智能和机器人技术的不断演进做出了巨大贡献。

这篇关于【具身智能】RT-2:视觉-语言-动作模型(VLA)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/649849

相关文章

C语言线程池的常见实现方式详解

《C语言线程池的常见实现方式详解》本文介绍了如何使用C语言实现一个基本的线程池,线程池的实现包括工作线程、任务队列、任务调度、线程池的初始化、任务添加、销毁等步骤,感兴趣的朋友跟随小编一起看看吧... 目录1. 线程池的基本结构2. 线程池的实现步骤3. 线程池的核心数据结构4. 线程池的详细实现4.1 初

Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)

《Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)》:本文主要介绍Python基于火山引擎豆包大模型搭建QQ机器人详细的相关资料,包括开通模型、配置APIKEY鉴权和SD... 目录豆包大模型概述开通模型付费安装 SDK 环境配置 API KEY 鉴权Ark 模型接口Prompt

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

嵌入式QT开发:构建高效智能的嵌入式系统

摘要: 本文深入探讨了嵌入式 QT 相关的各个方面。从 QT 框架的基础架构和核心概念出发,详细阐述了其在嵌入式环境中的优势与特点。文中分析了嵌入式 QT 的开发环境搭建过程,包括交叉编译工具链的配置等关键步骤。进一步探讨了嵌入式 QT 的界面设计与开发,涵盖了从基本控件的使用到复杂界面布局的构建。同时也深入研究了信号与槽机制在嵌入式系统中的应用,以及嵌入式 QT 与硬件设备的交互,包括输入输出设

让树莓派智能语音助手实现定时提醒功能

最初的时候是想直接在rasa 的chatbot上实现,因为rasa本身是带有remindschedule模块的。不过经过一番折腾后,忽然发现,chatbot上实现的定时,语音助手不一定会有响应。因为,我目前语音助手的代码设置了长时间无应答会结束对话,这样一来,chatbot定时提醒的触发就不会被语音助手获悉。那怎么让语音助手也具有定时提醒功能呢? 我最后选择的方法是用threading.Time

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}