【持续学习系列(九)】《Continual Learning with Pre-Trained Models: A Survey》

2024-02-04 16:52

本文主要是介绍【持续学习系列(九)】《Continual Learning with Pre-Trained Models: A Survey》,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、论文信息

1 标题

Continual Learning with Pre-Trained Models: A Survey

2 作者

Da-Wei Zhou, Hai-Long Sun, Jingyi Ning, Han-Jia Ye, De-Chuan Zhan

3 研究机构

National Key Laboratory for Novel Software Technology, Nanjing University; School of Artificial Intelligence, Nanjing University

二、主要内容

这篇论文是关于预训练模型(PTM)在持续学习(CL)中的应用的全面调查。持续学习旨在使学习系统能够随着数据的演变吸收新知识,同时克服在学习新知识时对旧知识的灾难性遗忘。论文将现有的方法分为三类:基于提示的方法、基于表示的方法和基于模型混合的方法,并对它们进行了比较分析。

三、相关背景

论文回顾了持续学习领域的研究进展,特别是那些不包含预训练模型的典型算法。同时,论文指出在当前预训练模型时代,基于PTM的CL正成为一个中心研究领域。

Preliminaries of Continual Learning

在论文的“Preliminaries”部分,2.1节定义了持续学习(Continual Learning, CL)的数学问题。持续学习关注的是一系列任务的学习场景,这些任务以数据流的形式出现。每个任务由输入实例和它们的标签组成,目标是让模型在不断学习新任务的同时,不忘记之前学到的知识。

数学上,CL的目标是最小化所有已见任务的期望风险,这可以通过以下公式表示:

f ∗ = arg min ⁡ f ∈ H E ( x , y ) ∼ D 1 ∪ ⋯ ∪ D B I ( y ≠ f ( x ) ) f^* = \argmin_{f \in H} \mathbb{E}_{(x,y) \sim D_1 \cup \dots \cup D_B} I(y \neq f(x)) f=fHargminE(x,y)D1DBI(y=f(x))

其中, H H H 是假设空间 I ( ⋅ ) I(\cdot) I() 是指示函数(如果表达式成立则输出1,否则输出0) D b D_b Db 是第 b b b 个任务的数据分布。这意味着CL模型应该在所有已见任务上表现良好,即不仅要学习新任务,还要记住旧任务。

Variations of CL

在CL的变体中,特别提到了Class-Incremental Learning (CIL)、Task-Incremental Learning (TIL) 和 Domain-Incremental Learning (DIL)。

  • CIL (Class-Incremental Learning): 在CIL中,新任务包含之前未见过的新类别,模型需要学习这些新类别,同时不忘记旧类别。在训练阶段,新任务的数据分布 p ( X b ) p(X_b) p(Xb)与旧任务的数据分布 p ( X b ′ ) p(X_{b'}) p(Xb)不同,且新任务的类别集合 Y b Y_b Yb与旧任务的类别集合 Y b ′ Y_{b'} Yb没有交集( Y b ∩ Y b ′ = ∅ Y_b \cap Y_{b'} = \emptyset YbYb=)。在测试阶段,CIL不提供任务ID(即 b b b)。

  • TIL (Task-Incremental Learning): TIL与CIL类似,但在测试阶段,TIL提供了任务ID(即 b b b),这允许模型在测试时知道每个实例属于哪个任务。

  • DIL (Domain-Incremental Learning): DIL关注的是当新任务的数据分布 p ( X b ) p(X_b) p(Xb)与旧任务的数据分布 p ( X b ′ ) p(X_{b'}) p(Xb)不同时,但新旧任务的类别集合相同( Y b = Y b ′ Y_b = Y_{b'} Yb=Yb)。例如,新任务可能包含同一类别的图像,但存在领域偏移,如卡通画和油画。

这些变体在处理新旧知识的关系和测试阶段的要求上有所不同,但共同目标都是让模型能够适应新任务,同时保持对旧任务的记忆。

四、解决方案

论文提出了三种基于PTM的CL方法:

1、基于提示的方法(Prompt-Based Methods)

基于提示的方法利用预训练模型(PTM)的泛化能力,通过引入轻量级的可训练模块(如提示)来调整模型,以便在不破坏原有泛化能力的前提下适应新任务。

代表工作及其做法:

  1. Visual Prompt Tuning (VPT): VPT通过在预训练模型的输入特征前添加一组可学习的参数(提示),然后通过最小化交叉熵损失来优化这些提示。这样,模型可以在保持预训练权重不变的情况下,通过调整提示来适应新任务。

  2. Prompt Pool: 提示池方法收集一组提示,允许在训练和推理过程中进行实例特定的提示。例如,L2P(Learnable Prompts)通过关键-查询匹配策略来选择与输入特征最相似的提示。

  3. DualPrompt: 这种方法通过在不同层次上附加提示来探索提示的深度,并区分通用提示和专家提示。通用提示用于编码任务通用信息,而专家提示则针对特定任务。

  4. CODA-Prompt: CODA-Prompt提出了一种基于注意力机制的提示构建方法,通过计算输入特征与提示键的注意力分数来创建加权的提示组合。

  5. DAP (Dual Attention Prompt): DAP通过编码提示生成到一个多层感知机(MLP)网络中,生成实例特定的提示。这种方法通过在任务预测的基础上产生权重和偏置,来生成提示。

优缺点总结:

优点:

  • 泛化能力:利用预训练模型的泛化能力,有效地编码任务特定的知识。

  • 参数效率:提示模块的参数量小,适合资源受限的环境。

  • 适应性:通过学习提示池,模型能够进行自适应的知识检索和实例特定的预测。

缺点:

  • 提示选择:提示选择过程可能存在局限性,可能导致遗忘问题。

  • 表示能力限制:固定大小的提示池可能限制了表示能力,而动态增长的提示池可能导致训练和测试不匹配。

  • 比较公平性:某些方法(如DAP)可能依赖于批量信息,这在实际应用中可能导致性能下降。

2、基于表示的方法(Representation-Based Methods)

基于表示的方法直接利用预训练模型的表示能力来构建分类器,通常通过冻结预训练权重并提取类别原型来实现。

代表工作及其做法:

1. SimpleCIL: SimpleCIL通过冻结预训练权重,提取每个类别的中心(原型),并用这些原型作为分类器权重。这种方法简单直观,且在某些情况下表现出色。

2. ADAM (Adaptive Model with Data Augmentation): ADAM通过比较原型分类器和全微调模型的性能,提出使用参数高效的模块(如提示或适配器)来微调预训练模型,并结合预训练和微调模型的特征。

3. RanPAC (Random Projections for Continual Learning): RanPAC使用在线LDA分类器来去除类别间的相关性,并设计额外的随机投影层来投影特征到高维空间,以提高特征的可分性。

优缺点总结:

优点:

  • 直观性:使用类别原型作为分类器权重直观且易于解释。

  • 轻量级更新:主要冻结预训练模型的权重,更新成本较低。

  • 性能:在某些任务上,基于表示的方法表现出与复杂学习系统相当的性能。

缺点:

  • 特征冗余:在构建类别原型时可能忽略模型间的冗余特征。

  • 领域适应性:在涉及多个领域的任务中,可能需要更复杂的模型调整来桥接领域间的差异。

3、基于模型混合的方法(Model Mixture-Based Methods)

基于模型混合的方法在持续学习过程中创建一组模型,并在推理时进行模型融合或合并,以减轻灾难性遗忘。

代表工作及其做法:

1. ESN (Ensemble of Specialized Networks): ESN在面对新任务时初始化并训练新的分类器头,然后在推理时通过投票策略来融合这些分类器的输出。

2. LAE (Learning with Augmented Experts): LAE定义了在线和离线学习协议,在线模型通过交叉熵损失更新,而离线模型通过模型合并(如指数移动平均)来更新。

3. PROOF (Prompt-based Reasoning for Out-of-Domain Generalization): PROOF利用CLIP模型进行跨模态匹配,通过设计一个三级融合模型来处理图像到文本、图像到图像原型和图像到调整文本的任务。

优缺点总结:

优点:

  • 多样性:通过模型融合或合并,可以提高决策的多样性和鲁棒性。

  • 知识共享:模型混合允许在不同阶段之间共享知识,强调知识的重要性。

  • 推理成本:模型融合或合并后的推理成本不会随着模型数量的增加而显著增加。

缺点:

  • 存储成本:需要保存所有历史模型,占用大量内存。

  • 参数选择:决定哪些参数进行合并仍然是一个开放问题,可能导致解决方案的启发式和手工调整。

  • 模型大小:尽管模型融合可以限制模型大小,但合并大型模型的权重也需要额外的计算。

五、实验环节

论文在七个基准数据集上对代表性方法进行了评估,包括CIFAR100、CUB200、ImageNet-R/A、ImageNet-A、ObjectNet、Omnibenchmark和VTAB。实验结果表明,基于表示的方法(如ADAM和RanPAC)表现出更竞争力的性能,而基于提示的方法(如L2P和DualPrompt)的性能较差。

六、进一步探索点:

1. 持续学习与大型语言模型(LLMs)的结合:

  • 当前的研究主要集中在视觉识别领域,但大型语言模型(如GPT)也需要适应不断变化的信息,例如全球事件的更新。持续学习为这些模型提供了一种逐步更新的方法,而不需要全面重新训练,这可以减少资源消耗并提高模型对当前信息的响应性。

2. 超越单一模态识别:

  • 预训练模型的进步已经扩展到多模态模型,如CLIP,这些模型能够处理和响应多种类型的输入。虽然在视觉识别方面已经取得了显著进展,但将研究扩展到多模态任务,如CLIP和其他视觉-语言模型在多模态任务上的持续学习能力,是一个新兴且有前景的领域。

3. 在资源受限的环境下学习:

  • 大型预训练模型在各种任务上表现出色,但它们的调整往往涉及显著的计算成本。在边缘设备上部署这些模型,如智能手机上的个人助理应用,需要本地训练和推理,这要求持续学习算法在计算上更加高效。近期的持续学习研究越来越关注资源受限的场景,这可能会揭示和解决与计算效率相关的挑战。

4. 开发新的基准数据集:

  • 为了有效地挑战预训练模型,需要新的数据集,这些数据集与ImageNet等预训练数据集相比存在显著的领域差距。这样的数据集可以帮助研究者评估模型在面对未知信息时的表现,这是持续学习的本质。

5. 理论上的优势探索:

  • 预训练模型在持续学习中的表现优于从头开始训练的模型,这一现象目前仅在经验层面上得到观察。理论上探索这些现象背后的原因,将有助于理解预训练模型在持续学习中的优势,并可能为实际应用提供新的见解。

这些方向不仅涵盖了技术层面的挑战,如模型的适应性和效率,还包括了理论层面的探索,以及如何将持续学习应用于更广泛的领域,如语言模型和多模态任务。这些研究方向有望推动持续学习领域的发展,并为实际应用提供新的解决方案。

七、总结

论文提供了对基于预训练模型的持续学习的最新进展的全面调查,包括问题定义、基准数据集和评估协议。通过系统地将方法分类并进行深入分析,论文揭示了当前挑战和潜在的未来研究方向,旨在推动持续学习领域的进一步发展。

这篇关于【持续学习系列(九)】《Continual Learning with Pre-Trained Models: A Survey》的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/678195

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

科研绘图系列:R语言扩展物种堆积图(Extended Stacked Barplot)

介绍 R语言的扩展物种堆积图是一种数据可视化工具,它不仅展示了物种的堆积结果,还整合了不同样本分组之间的差异性分析结果。这种图形表示方法能够直观地比较不同物种在各个分组中的显著性差异,为研究者提供了一种有效的数据解读方式。 加载R包 knitr::opts_chunk$set(warning = F, message = F)library(tidyverse)library(phyl

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学