Google Research 推出高效的Prompt Tuning方法

2024-09-06 03:28

本文主要是介绍Google Research 推出高效的Prompt Tuning方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

人工智能咨询培训老师叶梓 转载标明出处

一般模型微调方法需要对预训练模型的所有参数进行调整,这在大规模模型中既耗时又耗资源。Google Research的研究团队提出了一种名为“Prompt Tuning”的方法,旨在通过学习“软提示”来调整冻结的语言模型,使其能够更好地完成特定的下游任务。这种方法不仅简单有效,而且在模型规模增大时,其性能逐渐接近全模型微调(Model Tuning)的效果。图2通过对比模型调整和提示调整在处理不同下游任务时的模型复制和推理方式,展示了提示调整在参数效率上的优势。

论文链接:https://arxiv.org/pdf/2104.08691

项目链接:https://github.com/google-research/text-to-text-transfer-transformer/

Prompt Tuning

Prompt Tuning基于T5的“text-to-text”方法,将所有任务视为文本生成任务。不同于传统的分类模型,它将分类任务建模为条件生成任务,其中输出Y是代表类别标签的标记序列。在T5中,分类被表示为,这里的θ是构成编码器和解码器的变换器的权重。

提示是向模型添加额外信息的方法,通常通过在输入X前添加一系列标记P来实现,以最大化正确Y的似然,同时保持模型参数θ不变。在GPT-3中,提示标记的表示是模型嵌入表的一部分,由冻结的θ参数化。

Prompt Tuning去除了提示必须由θ参数化的约束,而是拥有自己的专用参数,这些参数可以更新。这使得提示可以被视为一系列特殊标记,其嵌入是可学习的。新的条件生成表示为,并且可以通过反向传播来训练,只对​应用梯度更新。

设计决策:

  • 初始化提示表示:最简单的方法是随机初始化。更复杂的方法是从模型的词汇表中抽取嵌入来初始化每个提示标记。对于分类任务,还可以使用枚举输出类别的嵌入来初始化提示,类似于Schick和Schütze (2021)的“verbalizers”。
  • 提示长度:提示的长度是设计时需要考虑的另一个因素。提示越短,需要调整的新参数就越少。因此,研究者们旨在找到一种最短的提示,但仍然能够保持良好的性能。

与GPT-3等自回归语言模型不同,T5模型使用编码器-解码器架构,并在跨度腐败目标上进行预训练。T5的任务是“重建”输入文本中被掩盖的跨度,这些跨度用独特的哨兵标记标记。然而,研究者们认为这种设置可能不适合通过提示调整来控制冻结模型。因此,他们实验了三种不同的设置:(1)“Span Corruption”,(2)“Span Corruption + Sentinel”,(3)“LM Adaptation”。

研究者们在不同规模的预训练T5模型上构建了冻结模型,并在SuperGLUE基准上测量了性能。他们发现,随着模型规模的增加,Prompt Tuning的性能逐渐接近传统的模型微调方法。他们还发现,Prompt Tuning在跨领域任务中展现出更好的鲁棒性。

在比较不同调整技术时,研究者们发现Prompt Tuning在参数使用上非常高效。对于超过十亿参数的模型,Prompt Tuning只需要不到0.01%的任务特定参数。

想要掌握如何将大模型的力量发挥到极致吗?叶老师带您深入了解 Llama Factory —— 一款革命性的大模型微调工具。9月22日晚,实战专家1小时讲解让您轻松上手,学习如何使用 Llama Factory 微调模型。

加助理微信提供直播链接:amliy007,29.9元即可参加线上直播分享,叶老师亲自指导,互动沟通,全面掌握Llama Factory,关注享粉丝福利,限时免费CSDN听直播后的录播讲解。
 

LLaMA Factory 支持多种预训练模型和微调算法。它提供灵活的运算精度和优化算法选择,以及丰富的实验监控工具。开源特性和社区支持使其易于使用,适合各类用户快速提升模型性能。

实验

实验设置:

  • 使用不同规模的预训练T5模型(Small, Base, Large, XL, XXL)。
  • 使用额外训练了100K步的LM适应版本的T5,初始化使用类标签,并使用长度为100个标记的提示。
  • 在SuperGLUE基准上测量性能,这是一个包含八个具有挑战性的英语语言理解任务的集合。

实验结果:

图1展示了随着模型规模的增加,Prompt Tuning与模型微调的竞争力逐渐增强。在XXL规模(110亿参数)下,Prompt Tuning甚至与更强的多任务模型微调基线相匹配,尽管其任务特定参数少于20,000倍。

图3为超参数消融研究的结果:

提示长度(Prompt Length):对于大多数模型大小,将提示长度增加到超过单个标记对于实现良好性能至关重要。

提示初始化(Prompt Initialization):基于类的初始化在所有模型大小上表现最佳。

预训练目标(Pre-training Objective):LM适应在所有模型大小上都优于跨度腐败,即使在下游任务目标中添加了哨兵,XXL模型也能很好地工作。

图4展示了不同调整技术(Model Tuning, Prefix Tuning, WARP, Prompt Tuning, Prompt Design)的参数使用情况。Prompt Tuning在大多数模型大小下,只需要不到0.01%的任务特定参数。

这些结果表明,Prompt Tuning是一种有效的参数高效方法,能够在不牺牲性能的前提下,减少对计算资源的需求。

Prompt Tuning的参数效率与领域适应性

Prompt Tuning在参数效率和领域适应性方面展现出显著优势。通过与其他先进的技术如Prefix Tuning、WARP和P-tuning等进行比较,Prompt Tuning以其低于0.01%的任务特定参数需求,确立了其在大规模模型中的领先地位。

Prompt Tuning的核心在于将任务特定信息以提示的形式注入到模型的输入中,而不是调整模型的内部权重。这种方法允许模型在保持其对语言的一般理解的同时,针对特定任务调整其行为。与Prefix Tuning相比,Prompt Tuning不仅参数更少,还允许模型在处理输入时更新中间层的表示,这在处理不同领域数据时尤为重要。

在领域迁移的测试中,Prompt Tuning表现出了卓越的鲁棒性。通过在MRQA 2019共享任务和GLUE释义检测任务上的实验,研究者们发现Prompt Tuning在多数领域外数据集上超越了传统的模型调整方法。特别是在领域变化较大的情况,如从Wiki迁移到教科书或生物医学数据集时,Prompt Tuning的性能提升更为显著。

在SQuAD数据集上训练的模型在不同领域数据集上进行零样本领域迁移的性能。

Prompt Tuning在模型集成方面也展现了其独特的优势。与传统的模型集成相比,Prompt Tuning通过在同一任务上训练多个提示,创建了多个“虚拟模型”,这些模型共享相同的核心语言模型参数。这种方法不仅大大减少了存储和推理成本,还通过集成多个提示来提高模型的性能和不确定性估计。

尽管Prompt Tuning在连续嵌入空间中工作,使得提示的解释变得复杂,但研究者们通过分析提示标记与其词汇表中最近邻的相似性,发现学习到的提示确实形成了紧密的语义簇。这表明提示在学习过程中获得了类似单词的表示能力。特别是在使用类标签初始化提示时,这些标签往往会保留在最终学到的提示中,这为理解模型的行为提供了线索。

这项研究证明了Prompt Tuning是一种有效的参数高效方法,能够在不牺牲性能的前提下,减少对计算资源的需求。这对于大规模模型的部署和应用具有重要意义。

这篇关于Google Research 推出高效的Prompt Tuning方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1140867

相关文章

Linux换行符的使用方法详解

《Linux换行符的使用方法详解》本文介绍了Linux中常用的换行符LF及其在文件中的表示,展示了如何使用sed命令替换换行符,并列举了与换行符处理相关的Linux命令,通过代码讲解的非常详细,需要的... 目录简介检测文件中的换行符使用 cat -A 查看换行符使用 od -c 检查字符换行符格式转换将

SpringBoot实现数据库读写分离的3种方法小结

《SpringBoot实现数据库读写分离的3种方法小结》为了提高系统的读写性能和可用性,读写分离是一种经典的数据库架构模式,在SpringBoot应用中,有多种方式可以实现数据库读写分离,本文将介绍三... 目录一、数据库读写分离概述二、方案一:基于AbstractRoutingDataSource实现动态

Java中的String.valueOf()和toString()方法区别小结

《Java中的String.valueOf()和toString()方法区别小结》字符串操作是开发者日常编程任务中不可或缺的一部分,转换为字符串是一种常见需求,其中最常见的就是String.value... 目录String.valueOf()方法方法定义方法实现使用示例使用场景toString()方法方法

Java中List的contains()方法的使用小结

《Java中List的contains()方法的使用小结》List的contains()方法用于检查列表中是否包含指定的元素,借助equals()方法进行判断,下面就来介绍Java中List的c... 目录详细展开1. 方法签名2. 工作原理3. 使用示例4. 注意事项总结结论:List 的 contain

C#使用SQLite进行大数据量高效处理的代码示例

《C#使用SQLite进行大数据量高效处理的代码示例》在软件开发中,高效处理大数据量是一个常见且具有挑战性的任务,SQLite因其零配置、嵌入式、跨平台的特性,成为许多开发者的首选数据库,本文将深入探... 目录前言准备工作数据实体核心技术批量插入:从乌龟到猎豹的蜕变分页查询:加载百万数据异步处理:拒绝界面

Spring Boot + MyBatis Plus 高效开发实战从入门到进阶优化(推荐)

《SpringBoot+MyBatisPlus高效开发实战从入门到进阶优化(推荐)》本文将详细介绍SpringBoot+MyBatisPlus的完整开发流程,并深入剖析分页查询、批量操作、动... 目录Spring Boot + MyBATis Plus 高效开发实战:从入门到进阶优化1. MyBatis

macOS无效Launchpad图标轻松删除的4 种实用方法

《macOS无效Launchpad图标轻松删除的4种实用方法》mac中不在appstore上下载的应用经常在删除后它的图标还残留在launchpad中,并且长按图标也不会出现删除符号,下面解决这个问... 在 MACOS 上,Launchpad(也就是「启动台」)是一个便捷的 App 启动工具。但有时候,应

SpringBoot日志配置SLF4J和Logback的方法实现

《SpringBoot日志配置SLF4J和Logback的方法实现》日志记录是不可或缺的一部分,本文主要介绍了SpringBoot日志配置SLF4J和Logback的方法实现,文中通过示例代码介绍的非... 目录一、前言二、案例一:初识日志三、案例二:使用Lombok输出日志四、案例三:配置Logback一

Python实现无痛修改第三方库源码的方法详解

《Python实现无痛修改第三方库源码的方法详解》很多时候,我们下载的第三方库是不会有需求不满足的情况,但也有极少的情况,第三方库没有兼顾到需求,本文将介绍几个修改源码的操作,大家可以根据需求进行选择... 目录需求不符合模拟示例 1. 修改源文件2. 继承修改3. 猴子补丁4. 追踪局部变量需求不符合很

mysql出现ERROR 2003 (HY000): Can‘t connect to MySQL server on ‘localhost‘ (10061)的解决方法

《mysql出现ERROR2003(HY000):Can‘tconnecttoMySQLserveron‘localhost‘(10061)的解决方法》本文主要介绍了mysql出现... 目录前言:第一步:第二步:第三步:总结:前言:当你想通过命令窗口想打开mysql时候发现提http://www.cpp