论文解读:Large Language Models as Analogical Reasoners

2023-10-25 09:30

本文主要是介绍论文解读:Large Language Models as Analogical Reasoners,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

image.png

一、动机

  • 大模型在各种类型的NLP任务上均展现出惊艳的表现。基于CoT propmt能够更好地激发大模型解决复杂推理问题的能力,例如解决数学解题,可以让模型生成reasoning path。现有的经典的CoT方法有few-shot cot、zero-shot cot等。
  • 然后现有的cot面临两个核心挑战:
    • 需要提供相关的exemplars作为指导;
    • 需要尽可能减少人工标注的成本;
  • Zero-shot CoT避免了人工标注来引导推理,但是对于一些复杂的任务难以完成推理,例如code generation;而few-shot CoT则可以通过引入task相关的exemplar来让大模型生成相应的推理,但是此时则需要人工标注或挑选exemplar
  • 因此引发一个研究问题:如何能够同时兼顾两者的优势?
  • 本文提出一种“归纳学习”的提示方法。首先设计instruction让大模型生成出与当前问题比较相关的exemplars,并补全exemplars,最后让模型recall relevant problem and aolutions来解决当前的问题。

二、方法

本文关注problem-solving task。
给定一个问题 x x x,首先通过一个prompt method将问题映射到文本输入 ϕ ( x ) \phi(x) ϕ(x),任务目标是调用LLM解决这个问题并生成目标答案 y y y,生成的目标答案可以包含reasoning path r r r和答案 a a a
image.png
本文则是关注在设计 ϕ \phi ϕ

image.png

Self-Generated Exemplars

**归纳提示学习(analogical prompting)**旨在模型在解决一个新的问题时,能够自发性地寻找相似的已有的知识。因此提出Self-Generated Exemplars方法,即让模型从在训练阶段掌握的problem-solving knowledge中生成出相关的问题和解决方法。
设计指令来达到这个目的:
image.png
基于这个instruction的一个实例如下所示:
image.png
大模型能够根据给定的instruciton,在对于一个新的问题 x x x时候,能够先生成出3个相关的且互不相同的problem并给出相应的解决方案,然后再对目标问题进行解决。

self-generated instruction的三个核心部分:

  • 需要明确地让模型生成relevant切diverse exemplars。因为打磨学会偏向于重复地生成一些经典的问题,误导模型生成。

generate problems that are distinct from each other.

  • single-pass & independent exemplar generation。实验发现single-pass效果最好:
    • single-pass:本文提出的方法,一个instruction让模型生成3个exemplar;
    • independent exemplar generation:让模型分别生成若干exemplar,然后采样3个exemplar之后再重新设计prompt让大模型进行生成。
  • exemplar number K K K:发现3~5最佳。

Self-generated Knowledge + Exemplars

对于像code-generation等复杂的任务,low-level exemplar generation不一定能过让模型很好地解决此类问题,因此本文提出一种high-level generation方法。通过设计如下指令来实现:
image.png
对应的具体的例子如下所示:
image.png
本质来说,就是在self-generated exemplar prompt的基础上,添加新的任务,即让模型生成核心知识。例如代码生成中,需要让模型先思考选择什么algorithm,以及algorithm对应的tutorial。
Knowledge的优势主要体现在两个方面:

  • knowledge act as high-level takeaways that complement low-level exemplars, which prevents LLMs from overly relying on specific exemplars and helps to generalize to new problems;
  • LLMs identify the core concepts of the problem and produce exemplars that align more closely in fundamental problem-solving approaches

三、实验

实验数据任务:

  • mathematical problem solving:GSM8K、MATH等;
  • code generation:动态规划、图算法等复杂的编程题,例如codeforces;
  • Big-Bench

模型:

  • GPT3.5-turbo、GPT-4、PaLM2-L

实验结果:

发现本文提出的方达到了SOTA。
image.png

探索:Self-generation exemplar与retrieve relevant exemplar的对比

  • retrieve方法的优势在于准确可靠,即采样得到的exemplar一定是准确的,但是缺点在于需要额外的标注成本,且搜索空间往往有限
  • self-generation方法的优势在于简单且自适应,能够根据具体的task量身定制对应的exemplar,且搜索空间可以是整个模型训练的语料。 v

image.png

探索:Scale of LLM

上图中展示出,当模型规模越大时,解题的准确性也越高,同时我们提出的self-generation方法与baseline的提升幅度也越大。

  • 当使用小模型时候,LLM本身的知识有限,因此更需要retrieve exemplar;
  • 当使用大模型的时候,此时LLM本身的知识很丰富,选择self-generation更容易得到与目标问题相近的exemplar。

探索:exemplar数量分析

image.png
发现当 K ∈ { 3 , 4 , 5 } K\in\{3, 4, 5\} K{3,4,5}时候更合适。


这篇关于论文解读:Large Language Models as Analogical Reasoners的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/281619

相关文章

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

MCU7.keil中build产生的hex文件解读

1.hex文件大致解读 闲来无事,查看了MCU6.用keil新建项目的hex文件 用FlexHex打开 给我的第一印象是:经过软件的解释之后,发现这些数据排列地十分整齐 :02000F0080FE71:03000000020003F8:0C000300787FE4F6D8FD75810702000F3D:00000001FF 把解释后的数据当作十六进制来观察 1.每一行数据

Java ArrayList扩容机制 (源码解读)

结论:初始长度为10,若所需长度小于1.5倍原长度,则按照1.5倍扩容。若不够用则按照所需长度扩容。 一. 明确类内部重要变量含义         1:数组默认长度         2:这是一个共享的空数组实例,用于明确创建长度为0时的ArrayList ,比如通过 new ArrayList<>(0),ArrayList 内部的数组 elementData 会指向这个 EMPTY_EL

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

Spring 源码解读:自定义实现Bean定义的注册与解析

引言 在Spring框架中,Bean的注册与解析是整个依赖注入流程的核心步骤。通过Bean定义,Spring容器知道如何创建、配置和管理每个Bean实例。本篇文章将通过实现一个简化版的Bean定义注册与解析机制,帮助你理解Spring框架背后的设计逻辑。我们还将对比Spring中的BeanDefinition和BeanDefinitionRegistry,以全面掌握Bean注册和解析的核心原理。

GPT系列之:GPT-1,GPT-2,GPT-3详细解读

一、GPT1 论文:Improving Language Understanding by Generative Pre-Training 链接:https://cdn.openai.com/research-covers/languageunsupervised/language_understanding_paper.pdf 启发点:生成loss和微调loss同时作用,让下游任务来适应预训

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin