今日arXiv最热NLP大模型论文:微软发布可视思维链VoT,提高大模型空间想象力

本文主要是介绍今日arXiv最热NLP大模型论文:微软发布可视思维链VoT,提高大模型空间想象力,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

此项研究提出了一种名为思维可视化(VoT)的技术,旨在通过可视化大型语言模型(LLMs)的推理过程来增强其空间推理能力。实验结果显示,VoT在多跳空间推理任务(如自然语言导航、视觉导航和二维网格世界的视觉切分)中显著提高了LLMs的表现,并超越了现有的多模型大型语言模型。其生成“心理影像”以利于空间推理的能力类似于人类的“心眼”过程,表明VoT在多模大型语言模型中具有潜在可行性。

分享几个网站

GPT-3.5研究测试:
https://hujiaoai.cn

GPT-4研究测试:
https://higpt4.cn

Claude-3研究测试(全面吊打GPT-4):
https://hiclaude3.com

图片

论文标题
Visualization-of-Thought Elicits Spatial Reasoning in Large Language Models

论文链接:
https://arxiv.org/pdf/2404.03622.pdf

VoT提示方法

1. VoT方法的提出背景

Visualization-of-Thought(VoT)提示方法的提出是为了激发LLMs的空间推理能力,通过可视化它们的推理过程,从而指导后续的推理步骤。VoT旨在为LLMs提供一种视觉空间草稿本(visuospatial sketchpad),以可视化它们的推理步骤并通知后续步骤。VoT采用零样本提示(zero-shot prompting),而不是依赖少数样本演示或与CLIP的文本到图像可视化。这一选择源于LLMs能够从基于文本的视觉艺术中获取各种心理图像的能力。

图片

2. VoT方法的具体实现

VoT提示方法的实现包括在每个推理步骤后生成推理痕迹和视觉化的交错过程。研究者使用pθ表示具有参数θ的预训练语言模型,x、y、z表示语言序列,v表示文本形式的视觉序列。在一个多跳空间推理任务中,输入x,CoT提示生成一系列中间步骤z1, ···, zn,每个步骤按顺序采样,然后输出。

这种推理范式使LLMs具备了视觉状态跟踪的能力。研究者引入了状态的概念,视觉状态跟踪通过在每个推理步骤zi之后生成视觉化vi作为内部状态si的心理图像(例如,vi可以是标记路径的导航地图网格或填充的矩形)。通过视觉状态跟踪序列的基础,后续状态通过计算得出。这种基于视觉状态跟踪的机制允许推导出反映时空因果关系的后续状态,并在有根据的上下文中增强LLMs的空间推理能力。

实验设计:任务选择与数据集构建

1. 自然语言导航任务

自然语言导航任务涉及通过随机漫步在一个基础空间结构中导航,并识别之前访问过的位置。这个任务要求模型能够理解闭环,这对于空间导航至关重要。在这个任务中,一个方形地图由一系列随机漫步指令和对应的对象定义,模型的任务是在导航指令的指引下识别出正确的对象。

2. 视觉导航任务

视觉导航任务向LLM展示了一个合成的2D网格世界,挑战模型使用视觉线索进行导航。模型必须生成导航指令,以四个方向(左、右、上、下)移动,从起点到达目的地,同时避开障碍物。这涉及到两个子任务:路线规划和下一步预测,都需要多跳空间推理,其中前者更为复杂。

3. 视觉拼图任务

视觉拼图任务是一个经典的空间推理挑战,研究者将其扩展以测试LLM理解、组织和推理形状的能力。任务涉及一个矩形区域,其中有未填充的单元格和各种多米诺骨牌形状的碎片。模型必须选择适当的多米诺骨牌变体,例如为I形多米诺骨牌选择方向,以解决问答谜题。

图片

图片

实验结果:VoT提示的有效性

1. VoT与其他方法的比较

在所有任务中,VoT提示的GPT-4模型在所有指标上显著优于其他设置。特别是在自然语言导航任务中,GPT-4 VoT比GPT-4 w/o Viz(没有可视化提示的GPT-4)提高了27%。在视觉任务中,GPT-4 CoT与GPT-4V CoT(带有对应图像输入的GPT-4 Vision)之间的显著性能差距表明,带有2D网格输入的LLM可能在具有挑战性的空间推理任务中胜过多模态大语言模型(MLLMs)。

图片

2. VoT在不同任务中的表现

尽管VoT在所有任务中的表现都远未完美,特别是在最具挑战性的路线规划任务中,但它在自然语言导航、视觉导航和视觉拼图任务中的表现证明了其有效性。随着任务复杂性的增加,LLMs的性能显著下降,但即便如此,VoT提示仍然能够显著提高LLMs在这些任务上的表现。

图片

3. 文本到视频生成的竞争性能

通过统一的生成预训练,Video-LaVIT能够灵活地生成视频和图像。在文本到视频生成结果中,该模型在MSR-VTT和UCF-101上的表现显著优于大多数使用类似公共数据集训练的基线,并且与在更大专有数据上训练的模型高度竞争,例如在MSR-VTT上领先FVD。特别是与基于语言模型的文本到视频生成器相比,该方法一致超过CogVideo,同时超过了最近的同期工作VideoPoet,后者使用了更大的数据训练的3D视频分词器。这清楚地验证了分词器设计的优越性。

VoT的观察现象与潜在原因

1. VoT的视觉状态追踪能力

Visualization-of-Thought (VoT) 提出的目的是为了在空间推理任务中模拟人类的“心智之眼”,即通过内部视觉化来增强空间意识和决策。VoT通过提示(prompting)的方式,引导大语言模型(LLMs)在每个推理步骤中生成视觉状态的追踪,从而支持后续的推理步骤。这种方法在自然语言导航、视觉导航和视觉平铺等多跳空间推理任务中表现出了显著的效果,VoT提示的LLMs在这些任务上的表现超过了现有的多模态大语言模型(MLLMs)。

VoT的视觉状态追踪能力体现在其能够生成内部状态的视觉化表示,并利用这些表示来指导后续的推理步骤。例如,在视觉导航任务中,LLMs需要生成导航指令来避开障碍物并到达目的地,VoT使得模型能够在每个推理步骤后生成一个内部状态的视觉化网格图,从而更好地规划路线和预测下一步。

2. VoT的局限性与挑战

尽管VoT在增强LLMs的空间推理能力方面取得了进展,但其也存在局限性和挑战。在实验中观察到,VoT在某些情况下未能展示视觉状态追踪,而在特定任务中,如路线规划任务,GPT-4 CoT(Chain-of-Thought)偶尔会展示出类似的推理模式,但这种情况并不常见。此外,模型输出中常常观察到错误的视觉化表示。

VoT的局限性可能源于LLMs对空间信息的处理能力仍有待提高。例如,在最具挑战性的路线规划任务中,LLMs的表现仍远非完美,尤其是当任务复杂性增加时,LLMs的表现显著下降。此外,LLMs在视觉状态追踪行为上对提示非常敏感,例如,当从VoT提示中移除“推理”一词时,模型在生成错误答案后才进行视觉化采样,这导致追踪率和任务性能下降。

结论与展望

尽管VoT在LLMs中展现出了令人印象深刻的效果,但其在所有任务中的表现仍有提升空间,尤其是在最具挑战性的路线规划任务中。此外,VoT提示可能在那些不需要可视化内部状态即可利用逻辑推理解决的任务中表现不佳。因此,未来的研究将探索如何进一步激发MLLMs中的“心灵之眼”以增强其空间意识,同时寻找从现实世界场景中自动数据增强的有效方法,以学习心理图像的泛化内部表示。

此外,还应探索更多样化和复杂的表示形式,如复杂的几何形状甚至是3D语义,以加强LLMs的“心灵之眼”。这些努力最终将有助于提升LLMs的认知和推理能力,为理解和生成人类级别的空间推理提供新的可能性。

这篇关于今日arXiv最热NLP大模型论文:微软发布可视思维链VoT,提高大模型空间想象力的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/924629

相关文章

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

高效+灵活,万博智云全球发布AWS无代理跨云容灾方案!

摘要 近日,万博智云推出了基于AWS的无代理跨云容灾解决方案,并与拉丁美洲,中东,亚洲的合作伙伴面向全球开展了联合发布。这一方案以AWS应用环境为基础,将HyperBDR平台的高效、灵活和成本效益优势与无代理功能相结合,为全球企业带来实现了更便捷、经济的数据保护。 一、全球联合发布 9月2日,万博智云CEO Michael Wong在线上平台发布AWS无代理跨云容灾解决方案的阐述视频,介绍了

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX

上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。 自 FLU