偏好对齐RLHF-OpenAI·DeepMind·Anthropic对比分析

2024-01-21 12:12

本文主要是介绍偏好对齐RLHF-OpenAI·DeepMind·Anthropic对比分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

OpenAI

  • paper: InstructGPT, Training language models to follow instructions with human feedback

  • paper: Learning to summarize from human feedback

  • Introducing ChatGPT

解密Prompt系列4介绍了InstructGPT指令微调的部分,这里只看偏好对齐的部分

样本构建

RL的数据来源有两块,一部分是用户在playground里面真实请求的数据,另一部分来自标注同学自己写的指令样本。标注指令样本包括3种形式:单一指令,few-shot指令,根据用户之前提交的使用场景编写的指令,量级分布如下

img

在标注偏好样本上,OpenAI基于3H原则,设计了详细的标注标准详见论文。需要注意的一点是在训练样本标注时Helpful比Harmless和honest更重要,但是在评估样本的标注上Harmless和honest更重要。这样区别标注是OpenAI发现Helpful和Harmless存在冲突,如果模型过度拟合无害性,会导致模型拒绝回答很多问题。OpenAI认为不同场景下风险的定义是不同的,应该把拒绝回答的能力放到下游场景中, 后面Anthropic也碰到了相似的问题,我个人更偏好Anthropic的方案。

在标注过程中,模型会生成4-7个回复,标注同学需要综合考虑有用性,无害性和真实性,对模型的每一个回复进行绝对打分后续用于评估,同时给出多个模型回复间的相对排序用于RM模型训练,标注界面如下:

img

img

ChatGPT对话训练部分未公开细节,从官网能获得细节是,ChatGPT的样本是人工写的对话样本+InstructGPT样本转换成对话格式的混合样本,更多基于对话形式的标注可以参考后面的DeepMind和Anthropic。

奖励模型

OpenAI使用了指令微调16个epoch的6B模型作为奖励模型的初始模型。训练方式是两两对比计算crossentropy,其中rθ��是奖励函数对指令x和回复y的打分,如下

不过OpenAI发现如果对数据进行Shuffle,则训练一轮就会过拟合,但如果把针对1个指令模型的K个回复,K在4~9之间,得到的C2k��2个pairwise对,放在一个batch里进行训练,会得到显著更高的准确率。这里一个batch包括64个指令生成的所有回复对,其中排名相同的样本对被剔除。

这里感觉和对比学习要用大batch_size进行拟合的思路有些相似,是为了保证对比的全面性和充分性,使用全面对比后计算的梯度对模型进行更新。另一个原因可能是不同标注人员之间的偏好差异,shuffle之后这种偏好差异带来的样本之间的冲突性更高。

之所以选择6B的模型,论文指出尽管175B的RM模型有更高的准确率和更小的验证集loss,但是训练过程并不稳定,以及太大的RM模型会导致RL部分的训练成本太高。

RLHF

  1. RL初始模型

OpenAI使用了SFT指令微调之后的模型作为RL的起点。RL初始模型的训练细节在附录C.3和E.8,基于GPT3的预训练模型,SFT微调2个epoch并混入10%的预训练数据进行训练得到。这里混入预训练是因为在RL微调的过程中发现加入预训练数据可以防止RL微调降低模型语言能力,因此在SFT微调过程中也做了相同的处理。这里我好奇的是,指令微调和预训练的核心差异其实只在指令输入的部分是否计算梯度,因此是否可以直接把指令微调和预训练混合变成一个步骤"文本+指令预训练",我们准备沿这个方向去尝试下~

  1. RL样本

OpenAI是完全基于在playground里用户真实提交的指令请求来进行训练,没有使用人工标注,为了完全面向用户使用进行偏好优化。

  1. RL训练

RL微调的部分,OpenAI使用了PPO算法,基于Reward模型的打分进行微调,微调了2个epoch。在此基础上加入了两个目标:

  • 微调模型和原始模型在token预测上的KL散度:避免模型过度拟合奖励函数偏离原始模型。后面也论证了KL的加入,可以加速RL收敛,核心是在相同的KL下最大化模型偏好的提升

  • 10%的预训练目标(PPO-PTX): 降低RL对模型语言能力的影响

img

且论文提到样本的收集和RL训练是多次迭代的,也就是使用RL微调后的模型上线收集更多的用户请求,重新训练RM,再更新模型。不停在优化后的模型上收集用户反馈,会让RM模型学习到更充分的高偏好样本,强者愈强。

  1. 效果

对比175B指令微调的模型,1.3B的模型经过RLHF微调,在喜爱度上就能打过175B的SFT模型!2点Insights如下

  • RLHF对齐带来的模型有用性的提升,效率远超训练更大的模型

  • 使用PPO-PTX的RLHF微调没有产生很大的Alignment-Tax

img

DeepMind

  • paper: Teaching language models to support answers with verified quotes

  • paper: Sparrow, Improving alignment of dialogue agents via

DeepMind的Sparrow使用了基于Google搜索的事实性信息的引入,这部分我们放到Agent调用的章节一起说,这里只关注偏好对齐的部分。

样本构建

不考虑搜索调用的部分,DeepMind的偏好对齐部分只关注2H,有用性和无害性。样本标注的基础模型是Chinchilla-70B,和OpenAI的差异在于,DeepMind把人类偏好和违反2H原则拆成了两个标注任务

  • 人类偏好标注:基于进行中的对话,从模型多个回复中选择最喜欢的一条,这里对话中的人机问答都是由模型生成的

img

  • 对抗标注/钓鱼执法:基于随机分配的标注规则,标注同学需要刻意引导模型给出违反该规则的回答,和风控红蓝对抗的思路相似

img

奖励模型

基于以上两份样本,论文通过微调Chinchilla-70B,分别训练了两个模型PM和RM, 微调的方式都是固定前64层,只微调后16层。

img

  1. PM:Preference Reward Model

PM的数据是在以上每轮对话多选一的基础上,从其他对话中随机采样更多的负样本构成的多分类任务,这里补充负样本是为了惩罚off-topic的模型回复。因此损失函数是多分类的CrossEntropy,以及在此基础上加入了Bradley-Taley(Elo)和正则项,如下

其中ri��是所有回复的模型打分,因此正则项是为了保证最终模型输出的打分是以0为中心的。而Elo部分是为了优化两两对比排序,更多细节>>Fitting the Bradley-Terry model to large and potentially sparse datasets

  1. RM:Rule Violation Model

RM模型是一个多标签任务,判断对话当前是否违反其中一条标注规则,输出违反该规则的条件概率。以上5档标签被分成两类,definitely break和probably break]是违反,probably follow和definitely follow是未违反,unsure样本被丢弃。这里DeepMind使用如下Hard Prompt Tunning来构建模型,其实就是引入一些前置语义信息,让模型在小样本上表现更好。更多细节>>解密Prompt系列2. 冻结Prompt微调LM

img

  1. 整体打分

基于以上两个模型,整体打分=偏好打分+所有规则的未违反概率之和+长度惩罚(保证回答简洁)+is_valid(模板检查)。其中模板检查包括要求Agent回复以\n\nSparrow:开始,以\n\nUser:结束,保证所有模型回复有相同的格式

img

个人感觉分开标注,以及引导式的标注没啥问题,但分开建模再直接打分融合可能不一定是最优的方案,因为两个模型的scale不同,很难对比违反部分规则,和偏好程度要如何balance才是最优的整体打分。

RLHF

  1. RL起点:和OpenAI相同,DeepMmind也使用监督微调模型作为初始模型。不过DeepMind直接使用了以上RM的标注数据中,多选一标注有用的回复,和未违反规则的回复来进行监督微调。

  2. RL样本

对比OpenAI使用纯人机对话的样本,DeepMind的RL的样本来源包括以下四个部分

  • 问题集:GopherCite的Eli5子集

  • 人机对话:以上RM和PM的人机对话的样本集

  • 对抗样本扩充:使用Prompt模板引导Sparrow生成有害问题,扩充有害对话样本

  • self-play:类似self-instruct,会采样已有对话作为上下文,让sparrow继续生成回复

  1. RL训练

DeepMind使用了Actor-Critic算法进行RL微调, RL算法我们会单独一章来讲,整体上A2C可能略弱于PPO。除了算法不同,DeepMind的RL微调也只微调Chinchilla模型的后16层。

都选择微调16层,其实是为了节省训练显存,这样PM,RM,初始SFT模型,和最终的RL微调模型都共享前64层,后16层通过不同head来实现,从而达到降低显存占用的目的。

img

  1. Insight:偏好和遵守规则的矛盾统一

人类偏好和遵守规则的要求存在一定冲突,只使用更偏好的数据训练会得到更高的规则违反率,只使用遵守规则的数据训练会降低模型回复的偏好率,混合样本的微调效果最好。

这篇关于偏好对齐RLHF-OpenAI·DeepMind·Anthropic对比分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/629506

相关文章

Redis主从/哨兵机制原理分析

《Redis主从/哨兵机制原理分析》本文介绍了Redis的主从复制和哨兵机制,主从复制实现了数据的热备份和负载均衡,而哨兵机制可以监控Redis集群,实现自动故障转移,哨兵机制通过监控、下线、选举和故... 目录一、主从复制1.1 什么是主从复制1.2 主从复制的作用1.3 主从复制原理1.3.1 全量复制

Redis主从复制的原理分析

《Redis主从复制的原理分析》Redis主从复制通过将数据镜像到多个从节点,实现高可用性和扩展性,主从复制包括初次全量同步和增量同步两个阶段,为优化复制性能,可以采用AOF持久化、调整复制超时时间、... 目录Redis主从复制的原理主从复制概述配置主从复制数据同步过程复制一致性与延迟故障转移机制监控与维

Redis连接失败:客户端IP不在白名单中的问题分析与解决方案

《Redis连接失败:客户端IP不在白名单中的问题分析与解决方案》在现代分布式系统中,Redis作为一种高性能的内存数据库,被广泛应用于缓存、消息队列、会话存储等场景,然而,在实际使用过程中,我们可能... 目录一、问题背景二、错误分析1. 错误信息解读2. 根本原因三、解决方案1. 将客户端IP添加到Re

Redis主从复制实现原理分析

《Redis主从复制实现原理分析》Redis主从复制通过Sync和CommandPropagate阶段实现数据同步,2.8版本后引入Psync指令,根据复制偏移量进行全量或部分同步,优化了数据传输效率... 目录Redis主DodMIK从复制实现原理实现原理Psync: 2.8版本后总结Redis主从复制实

锐捷和腾达哪个好? 两个品牌路由器对比分析

《锐捷和腾达哪个好?两个品牌路由器对比分析》在选择路由器时,Tenda和锐捷都是备受关注的品牌,各自有独特的产品特点和市场定位,选择哪个品牌的路由器更合适,实际上取决于你的具体需求和使用场景,我们从... 在选购路由器时,锐捷和腾达都是市场上备受关注的品牌,但它们的定位和特点却有所不同。锐捷更偏向企业级和专

什么是 Ubuntu LTS?Ubuntu LTS和普通版本区别对比

《什么是UbuntuLTS?UbuntuLTS和普通版本区别对比》UbuntuLTS是Ubuntu操作系统的一个特殊版本,旨在提供更长时间的支持和稳定性,与常规的Ubuntu版本相比,LTS版... 如果你正打算安装 Ubuntu 系统,可能会被「LTS 版本」和「普通版本」给搞得一头雾水吧?尤其是对于刚入

TP-LINK/水星和hasivo交换机怎么选? 三款网管交换机系统功能对比

《TP-LINK/水星和hasivo交换机怎么选?三款网管交换机系统功能对比》今天选了三款都是”8+1″的2.5G网管交换机,分别是TP-LINK水星和hasivo交换机,该怎么选呢?这些交换机功... TP-LINK、水星和hasivo这三台交换机都是”8+1″的2.5G网管交换机,我手里的China编程has

Spring中Bean有关NullPointerException异常的原因分析

《Spring中Bean有关NullPointerException异常的原因分析》在Spring中使用@Autowired注解注入的bean不能在静态上下文中访问,否则会导致NullPointerE... 目录Spring中Bean有关NullPointerException异常的原因问题描述解决方案总结

python中的与时间相关的模块应用场景分析

《python中的与时间相关的模块应用场景分析》本文介绍了Python中与时间相关的几个重要模块:`time`、`datetime`、`calendar`、`timeit`、`pytz`和`dateu... 目录1. time 模块2. datetime 模块3. calendar 模块4. timeit

python-nmap实现python利用nmap进行扫描分析

《python-nmap实现python利用nmap进行扫描分析》Nmap是一个非常用的网络/端口扫描工具,如果想将nmap集成进你的工具里,可以使用python-nmap这个python库,它提供了... 目录前言python-nmap的基本使用PortScanner扫描PortScannerAsync异