Google Research 推出高效的Prompt Tuning方法

2024-09-06 03:28

本文主要是介绍Google Research 推出高效的Prompt Tuning方法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

人工智能咨询培训老师叶梓 转载标明出处

一般模型微调方法需要对预训练模型的所有参数进行调整,这在大规模模型中既耗时又耗资源。Google Research的研究团队提出了一种名为“Prompt Tuning”的方法,旨在通过学习“软提示”来调整冻结的语言模型,使其能够更好地完成特定的下游任务。这种方法不仅简单有效,而且在模型规模增大时,其性能逐渐接近全模型微调(Model Tuning)的效果。图2通过对比模型调整和提示调整在处理不同下游任务时的模型复制和推理方式,展示了提示调整在参数效率上的优势。

论文链接:https://arxiv.org/pdf/2104.08691

项目链接:https://github.com/google-research/text-to-text-transfer-transformer/

Prompt Tuning

Prompt Tuning基于T5的“text-to-text”方法,将所有任务视为文本生成任务。不同于传统的分类模型,它将分类任务建模为条件生成任务,其中输出Y是代表类别标签的标记序列。在T5中,分类被表示为,这里的θ是构成编码器和解码器的变换器的权重。

提示是向模型添加额外信息的方法,通常通过在输入X前添加一系列标记P来实现,以最大化正确Y的似然,同时保持模型参数θ不变。在GPT-3中,提示标记的表示是模型嵌入表的一部分,由冻结的θ参数化。

Prompt Tuning去除了提示必须由θ参数化的约束,而是拥有自己的专用参数,这些参数可以更新。这使得提示可以被视为一系列特殊标记,其嵌入是可学习的。新的条件生成表示为,并且可以通过反向传播来训练,只对​应用梯度更新。

设计决策:

  • 初始化提示表示:最简单的方法是随机初始化。更复杂的方法是从模型的词汇表中抽取嵌入来初始化每个提示标记。对于分类任务,还可以使用枚举输出类别的嵌入来初始化提示,类似于Schick和Schütze (2021)的“verbalizers”。
  • 提示长度:提示的长度是设计时需要考虑的另一个因素。提示越短,需要调整的新参数就越少。因此,研究者们旨在找到一种最短的提示,但仍然能够保持良好的性能。

与GPT-3等自回归语言模型不同,T5模型使用编码器-解码器架构,并在跨度腐败目标上进行预训练。T5的任务是“重建”输入文本中被掩盖的跨度,这些跨度用独特的哨兵标记标记。然而,研究者们认为这种设置可能不适合通过提示调整来控制冻结模型。因此,他们实验了三种不同的设置:(1)“Span Corruption”,(2)“Span Corruption + Sentinel”,(3)“LM Adaptation”。

研究者们在不同规模的预训练T5模型上构建了冻结模型,并在SuperGLUE基准上测量了性能。他们发现,随着模型规模的增加,Prompt Tuning的性能逐渐接近传统的模型微调方法。他们还发现,Prompt Tuning在跨领域任务中展现出更好的鲁棒性。

在比较不同调整技术时,研究者们发现Prompt Tuning在参数使用上非常高效。对于超过十亿参数的模型,Prompt Tuning只需要不到0.01%的任务特定参数。

想要掌握如何将大模型的力量发挥到极致吗?叶老师带您深入了解 Llama Factory —— 一款革命性的大模型微调工具。9月22日晚,实战专家1小时讲解让您轻松上手,学习如何使用 Llama Factory 微调模型。

加助理微信提供直播链接:amliy007,29.9元即可参加线上直播分享,叶老师亲自指导,互动沟通,全面掌握Llama Factory,关注享粉丝福利,限时免费CSDN听直播后的录播讲解。
 

LLaMA Factory 支持多种预训练模型和微调算法。它提供灵活的运算精度和优化算法选择,以及丰富的实验监控工具。开源特性和社区支持使其易于使用,适合各类用户快速提升模型性能。

实验

实验设置:

  • 使用不同规模的预训练T5模型(Small, Base, Large, XL, XXL)。
  • 使用额外训练了100K步的LM适应版本的T5,初始化使用类标签,并使用长度为100个标记的提示。
  • 在SuperGLUE基准上测量性能,这是一个包含八个具有挑战性的英语语言理解任务的集合。

实验结果:

图1展示了随着模型规模的增加,Prompt Tuning与模型微调的竞争力逐渐增强。在XXL规模(110亿参数)下,Prompt Tuning甚至与更强的多任务模型微调基线相匹配,尽管其任务特定参数少于20,000倍。

图3为超参数消融研究的结果:

提示长度(Prompt Length):对于大多数模型大小,将提示长度增加到超过单个标记对于实现良好性能至关重要。

提示初始化(Prompt Initialization):基于类的初始化在所有模型大小上表现最佳。

预训练目标(Pre-training Objective):LM适应在所有模型大小上都优于跨度腐败,即使在下游任务目标中添加了哨兵,XXL模型也能很好地工作。

图4展示了不同调整技术(Model Tuning, Prefix Tuning, WARP, Prompt Tuning, Prompt Design)的参数使用情况。Prompt Tuning在大多数模型大小下,只需要不到0.01%的任务特定参数。

这些结果表明,Prompt Tuning是一种有效的参数高效方法,能够在不牺牲性能的前提下,减少对计算资源的需求。

Prompt Tuning的参数效率与领域适应性

Prompt Tuning在参数效率和领域适应性方面展现出显著优势。通过与其他先进的技术如Prefix Tuning、WARP和P-tuning等进行比较,Prompt Tuning以其低于0.01%的任务特定参数需求,确立了其在大规模模型中的领先地位。

Prompt Tuning的核心在于将任务特定信息以提示的形式注入到模型的输入中,而不是调整模型的内部权重。这种方法允许模型在保持其对语言的一般理解的同时,针对特定任务调整其行为。与Prefix Tuning相比,Prompt Tuning不仅参数更少,还允许模型在处理输入时更新中间层的表示,这在处理不同领域数据时尤为重要。

在领域迁移的测试中,Prompt Tuning表现出了卓越的鲁棒性。通过在MRQA 2019共享任务和GLUE释义检测任务上的实验,研究者们发现Prompt Tuning在多数领域外数据集上超越了传统的模型调整方法。特别是在领域变化较大的情况,如从Wiki迁移到教科书或生物医学数据集时,Prompt Tuning的性能提升更为显著。

在SQuAD数据集上训练的模型在不同领域数据集上进行零样本领域迁移的性能。

Prompt Tuning在模型集成方面也展现了其独特的优势。与传统的模型集成相比,Prompt Tuning通过在同一任务上训练多个提示,创建了多个“虚拟模型”,这些模型共享相同的核心语言模型参数。这种方法不仅大大减少了存储和推理成本,还通过集成多个提示来提高模型的性能和不确定性估计。

尽管Prompt Tuning在连续嵌入空间中工作,使得提示的解释变得复杂,但研究者们通过分析提示标记与其词汇表中最近邻的相似性,发现学习到的提示确实形成了紧密的语义簇。这表明提示在学习过程中获得了类似单词的表示能力。特别是在使用类标签初始化提示时,这些标签往往会保留在最终学到的提示中,这为理解模型的行为提供了线索。

这项研究证明了Prompt Tuning是一种有效的参数高效方法,能够在不牺牲性能的前提下,减少对计算资源的需求。这对于大规模模型的部署和应用具有重要意义。

这篇关于Google Research 推出高效的Prompt Tuning方法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1140867

相关文章

JavaScript中的reduce方法执行过程、使用场景及进阶用法

《JavaScript中的reduce方法执行过程、使用场景及进阶用法》:本文主要介绍JavaScript中的reduce方法执行过程、使用场景及进阶用法的相关资料,reduce是JavaScri... 目录1. 什么是reduce2. reduce语法2.1 语法2.2 参数说明3. reduce执行过程

C#中读取XML文件的四种常用方法

《C#中读取XML文件的四种常用方法》Xml是Internet环境中跨平台的,依赖于内容的技术,是当前处理结构化文档信息的有力工具,下面我们就来看看C#中读取XML文件的方法都有哪些吧... 目录XML简介格式C#读取XML文件方法使用XmlDocument使用XmlTextReader/XmlTextWr

C++初始化数组的几种常见方法(简单易懂)

《C++初始化数组的几种常见方法(简单易懂)》本文介绍了C++中数组的初始化方法,包括一维数组和二维数组的初始化,以及用new动态初始化数组,在C++11及以上版本中,还提供了使用std::array... 目录1、初始化一维数组1.1、使用列表初始化(推荐方式)1.2、初始化部分列表1.3、使用std::

使用 sql-research-assistant进行 SQL 数据库研究的实战指南(代码实现演示)

《使用sql-research-assistant进行SQL数据库研究的实战指南(代码实现演示)》本文介绍了sql-research-assistant工具,该工具基于LangChain框架,集... 目录技术背景介绍核心原理解析代码实现演示安装和配置项目集成LangSmith 配置(可选)启动服务应用场景

oracle DBMS_SQL.PARSE的使用方法和示例

《oracleDBMS_SQL.PARSE的使用方法和示例》DBMS_SQL是Oracle数据库中的一个强大包,用于动态构建和执行SQL语句,DBMS_SQL.PARSE过程解析SQL语句或PL/S... 目录语法示例注意事项DBMS_SQL 是 oracle 数据库中的一个强大包,它允许动态地构建和执行

Ubuntu固定虚拟机ip地址的方法教程

《Ubuntu固定虚拟机ip地址的方法教程》本文详细介绍了如何在Ubuntu虚拟机中固定IP地址,包括检查和编辑`/etc/apt/sources.list`文件、更新网络配置文件以及使用Networ... 1、由于虚拟机网络是桥接,所以ip地址会不停地变化,接下来我们就讲述ip如何固定 2、如果apt安

Go路由注册方法详解

《Go路由注册方法详解》Go语言中,http.NewServeMux()和http.HandleFunc()是两种不同的路由注册方式,前者创建独立的ServeMux实例,适合模块化和分层路由,灵活性高... 目录Go路由注册方法1. 路由注册的方式2. 路由器的独立性3. 灵活性4. 启动服务器的方式5.

在不同系统间迁移Python程序的方法与教程

《在不同系统间迁移Python程序的方法与教程》本文介绍了几种将Windows上编写的Python程序迁移到Linux服务器上的方法,包括使用虚拟环境和依赖冻结、容器化技术(如Docker)、使用An... 目录使用虚拟环境和依赖冻结1. 创建虚拟环境2. 冻结依赖使用容器化技术(如 docker)1. 创

Spring排序机制之接口与注解的使用方法

《Spring排序机制之接口与注解的使用方法》本文介绍了Spring中多种排序机制,包括Ordered接口、PriorityOrdered接口、@Order注解和@Priority注解,提供了详细示例... 目录一、Spring 排序的需求场景二、Spring 中的排序机制1、Ordered 接口2、Pri

Idea实现接口的方法上无法添加@Override注解的解决方案

《Idea实现接口的方法上无法添加@Override注解的解决方案》文章介绍了在IDEA中实现接口方法时无法添加@Override注解的问题及其解决方法,主要步骤包括更改项目结构中的Languagel... 目录Idea实现接China编程口的方法上无法添加@javascriptOverride注解错误原因解决方