人工智能论文GPT-3(2):2020.5 Language Models are Few-Shot Learners;微调;少样本Few-Shot (FS)

本文主要是介绍人工智能论文GPT-3(2):2020.5 Language Models are Few-Shot Learners;微调;少样本Few-Shot (FS),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2 方法Approach

我们的基本预训练方法,包括模型、数据和训练,与GPT-2中描述的过程相似,只是模型规模、数据集规模和多样性,以及训练时长有所扩大,相对简单直接。

我们使用的上下文学习也与GPT-2相似,但在这项工作中,我们系统地探索了不同上下文学习设置。

因此,我们首先明确定义并对比我们将评估GPT-3的不同设置,或者原则上可以评估GPT-3的设置。

这些设置可以被看作是一个谱系,它们依赖任务特定数据的程度各不相同。具体来说,我们可以在这个谱系上至少识别出四个点(如图2.1所示):

微调Fine-Tuning (FT)

微调(FT)是近年来最常见的方法,涉及在针对所需任务的监督数据集上训练,以更新预训练模型的权重。通常使用数千到数十万个带标签的示例。

微调的主要优势是在许多基准测试上表现出色。

主要缺点是每个任务都需要一个新的大型数据集,可能导致分布外泛化性能不佳[MPL19],以及可能利用训练数据的虚假特征[GSL+18, NK19],

这可能导致与人类性能的比较不公平。在这项工作中,我们没有对GPT-3进行微调,因为我们的重点是任务无关的性能,但原则上可以对GPT-3进行微调,这是未来工作的一个有前景的方向。

少样本Few-Shot (FS)

在本工作中,我们将使用“少样本(FS)”这一术语来指代这样一种设置:在推理时,模型接收到任务的几个演示作为条件输入[RWC+19],但不允许进行权重更新。

如图2.1所示,对于典型的数据集,一个示例包括一个上下文和一个期望的完成内容(例如一个英文句子和对应的法文翻译),少样本学习的工作方式是通过提供K个上下文和完成内容的示例,然后提供一个最终的上下文示例,模型需要提供对应的完成内容。我们通常将K设置在10到100的范围内,因为这么多示例可以适应模型的上下文窗口(nctx = 2048)。

少样本学习的主要优势是大大减少了对任务特定数据的需求,并降低了从大而狭窄的微调数据集中学习过于狭窄分布的可能性。

主要缺点是,这种方法的结果到目前为止比最先进的微调模型差得多。此外,仍然需要少量的任务特定数据。正如名称所示,这里描述的用于语言模型的少样本学习与机器学习(ML)中其他上下文中使用的少样本学习[HYC01, VBL+16]有关——两者都涉及基于广泛的任务分布进行学习(在这种情况下隐含在预训练数据中),然后迅速适应新任务。

一样本One-Shot (1S)

一样本(1S)与少样本相同,只是除了自然语言的任务描述外,只允许一个演示,如图1所示。将一样本与少样本和零样本(下面将介绍)区分开来的原因是,它最符合人类接收任务指令的方式。例如,当要求人类工作者在人工服务(如Mechanical Turk)上生成数据集时,通常会给出一个任务演示。相比之下,如果不提供示例,有时很难传达任务的内容或格式。

零样本Zero-Shot (0S)

零样本(0S)与一样本相同,只是不允许提供任何演示,模型仅接收描述任务的自然语言指令。这种方法提供了最大的便利性和潜在的鲁棒性,避免了虚假关联(除非它们在大规模预训练语料库中广泛出现),但同时也是最具挑战性的设置。在某些情况下,没有先前的示例,人类可能难以理解任务的格式,因此这种设置在某些情况下“过于困难”。例如,如果有人被要求“制作一份200米短跑世界纪录表”,这个请求可能是模糊的,因为可能不清楚表格的确切格式或应包含哪些内容(即使经过仔细澄清,也很难准确理解所需的内容)。然而,至少在某些情况下,零样本与人类执行任务的方式最为接近——例如,在图2.1中的翻译示例中,人类可能仅根据文本指令就知道该怎么做。

图2.1展示了使用英语到法语翻译示例的四种方法。在本文中,我们主要关注零样本、一样本和少样本,目的是将它们作为不同的问题设置进行比较,而不是作为相互竞争的替代方案,这些设置提供了在特定基准上的性能和样本效率之间的不同权衡。我们尤其强调少样本的结果,因为其中许多结果仅略逊于最先进的微调模型。然而,最终,一样本,有时甚至零样本,似乎是与人类性能最公平的比较,也是未来工作的重要目标。

以下2.1至2.3节分别详细介绍了我们的模型、训练数据和训练过程。2.4节讨论了如何进行少样本、一样本和零样本评估的细节。

Ankie的评论:

GPT-3论文标题明确指出:“Language Models are Few-Shot Learners”,这揭示了GPT-3模型采用了少样本(few-shot)学习模式,而非传统的微调模式。GPT-3致力于实现通用人工智能的目标,因此它选择了少样本模式进行推理,而不是仅仅通过微调来应试。在少样本模式下,模型接收任务的几个演示作为条件输入,但不进行权重更新,从而保持其通用性和灵活性。

然而,少样本模式也存在一些局限性。相比于微调模式,它在应对特定任务时的应试能力可能稍逊一筹。这是因为微调模式允许模型针对特定任务进行更深入的学习和适应,而少样本模式则更注重模型的泛化能力。尽管如此,GPT-3通过采用少样本学习模式,展现出了强大的推理和生成能力,为通用人工智能的实现迈出了重要的一步。

这篇关于人工智能论文GPT-3(2):2020.5 Language Models are Few-Shot Learners;微调;少样本Few-Shot (FS)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/922449

相关文章

基于人工智能的图像分类系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 图像分类是计算机视觉中的一个重要任务,目标是自动识别图像中的对象类别。通过卷积神经网络(CNN)等深度学习技术,我们可以构建高效的图像分类系统,广泛应用于自动驾驶、医疗影像诊断、监控分析等领域。本文将介绍如何构建一个基于人工智能的图像分类系统,包括环境

4B参数秒杀GPT-3.5:MiniCPM 3.0惊艳登场!

​ 面壁智能 在 AI 的世界里,总有那么几个时刻让人惊叹不已。面壁智能推出的 MiniCPM 3.0,这个仅有4B参数的"小钢炮",正在以惊人的实力挑战着 GPT-3.5 这个曾经的AI巨人。 MiniCPM 3.0 MiniCPM 3.0 MiniCPM 3.0 目前的主要功能有: 长上下文功能:原生支持 32k 上下文长度,性能完美。我们引入了

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX

上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。 自 FLU

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

GPT系列之:GPT-1,GPT-2,GPT-3详细解读

一、GPT1 论文:Improving Language Understanding by Generative Pre-Training 链接:https://cdn.openai.com/research-covers/languageunsupervised/language_understanding_paper.pdf 启发点:生成loss和微调loss同时作用,让下游任务来适应预训

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

基于人工智能的智能家居语音控制系统

目录 引言项目背景环境准备 硬件要求软件安装与配置系统设计 系统架构关键技术代码示例 数据预处理模型训练模型预测应用场景结论 1. 引言 随着物联网(IoT)和人工智能技术的发展,智能家居语音控制系统已经成为现代家庭的一部分。通过语音控制设备,用户可以轻松实现对灯光、空调、门锁等家电的控制,提升生活的便捷性和舒适性。本文将介绍如何构建一个基于人工智能的智能家居语音控制系统,包括环境准备