论文阅读笔记:A Closer Look at Few-shot Classification

2024-04-24 20:38

本文主要是介绍论文阅读笔记:A Closer Look at Few-shot Classification,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

论文:A Closer Look at Few-shot Classification / 近距离观察小样本分类问题

作者:Wei-Yu Chen,Yen-Cheng Liu & Zsolt Kira,Yu-Chiang Frank Wang,Jia-Bin Huang

发表刊物:ICLR

发表年度:2019

下载地址:https://arxiv.org/pdf/1904.04232.pdf

ABSTRACT

小样本分类旨在通过有限标记样例学习一个分类器来识别未知类,虽然近些年取得了一些重要的研究进展,但各方法网络结构、元学习算法的复杂性以及实现细节的差异为比较当前进展提出挑战。本文中,作者提出:1)对几种代表性的小样本分类算法进行一致性比较分析,结果证明随着特征提取神经网络模型能力的提升,在给定领域差异的数据集上,各方法的性能差异显著缩小;2)提出了一个基准模型,该模型在mini-ImageNet数据集和CUB数据集上的性能可以媲美几种SOTA方法;3)提出了一种新的用于评估小样本分类算法跨领域泛化能力的实验设定,结果发现当特征提取神经网络能力较弱时,减少类内差异是提升模型性能的一个重要因素,当特征提取神经网络能力较强时,类内差异不再关键。在一个实际的跨领域设定中,作者发现基准模型+微调的方式可以得到比SOTA更好的性能表现。

1 INTRODUCTION

深度学习模型在图像分类等视觉识别任务中的成功严重依赖于大量的标记训练数据,但人工标注的成本以及少量类别标记数据的稀疏性限制了视觉模型通过极少量标记样本学习识别新的类别,因此通过有限标记样本学习新类别这一问题引起了学者们的研究兴趣,将该问题称为小样本分类问题。解决小样本分类问题的一个方向是元学习,元学习通过从一组任务中提取可迁移的知识来防止模型出现过拟合、提升模型的泛化能力,典型的基于元学习的小样本分类方法又可分为基于模型初始化的方法基于度量学习的方法基于数据增强的方法,此外,研究表现通过直接预测新类别分类器的权重同样可以取得不错的效果。

局限性:虽然很多小样本分类算法声称相比于SOTA取得了性能提升,但要想对这些方法进行公正的比较和评估该领域实际进展,需要克服两个挑战:1)多种小样本学习方法在实现细节上的差异掩盖了相对的性能增益;2)当前的评估中的训练集和测试集往往来自于同一个数据集,没有考虑到基类和新类之间的领域漂移现象

本文的工作:作者提出了一个详细的实验研究,以阐明小样本分类问题:1)在同一背景下对比了几种经典的小样本分类方法,证明了特征提取神经网络的重要性;2)通过将线性分类器替换为基于距离的分类器,基准模型可以达到与当前SOTA可比较的性能;3)提出了一个更符合实际的评估设定,该设定考虑了基类和新类间的领域漂移现象,发现复杂的小样本学习算法在该设定下并不能取得比基准模型更好的表现。作者公开了源代码和模型实现,旨在促进领域发展。

贡献:1)为公平比较几种典型的小样本分类算法提供了一个统一的测试台,实验结果揭示了当前研究中普遍使用浅层特征提取神经网络会为显式减少类内差异的方法带来性能提升,在领域差异有限的设定下,提升模型的特征提取能力会缩小不同方法的性能差距;2)实验证明在mini-ImageNet数据集和CUB数据集上,带有基于距离的分类器的基准算法能取得相对于SOTA可比较的性能;3)对比了在基类和新类间存在领域漂移现象时各类算法的性能,实验结果显示当前的小样本分类算法不能很好地解决领域漂移问题,证明了在小样本学习中学习适应领域差异的重要性

2 RELATED WORK

小样本学习旨在通过有限标记数据学习识别新类别,可以将小样本学习算法分为三大类:基于初始化的方法、基于度量学习的方法和基于数据增强的方法。

基于初始化的方法:学习微调,旨在学习一个好的模型初始化策略,使得能够通过少量标记数据和有限的梯度更新轮次即可完成对新类别的分类,或者学习一个优化器。

基于距离度量的方法:学习比较,如果一个模型能够计算两张图像的相似度,那么它可能基于标记数据对未知图像进行分类,一般基于余弦相似度、欧式距离、岭回归、图神经网络等计算距离。

基于数据增强的方法:学习增强,旨在通过学习一个数据生成器,通过数据生成器增强新类的样本量。由于基于数据增强的方法往往与零样本方法协同优化,所以本文作者不考虑基于数据增强的方法。

领域自适应:一种旨在缓解源领域和目标领域间领域漂移现象的技术。小样本分类与领域自适应类似,区别在于在领域自适应中,目标域往往拥有大量的可用样本,而小样本学习在新领域中仅有少量可用样本。

3 OVERVIEW OF FEW-SHOT CLASSIFICATION ALGORITHMS

作者提出的基准模型和基准模型++:

本文中用作对比的几种经典的小样本分类算法:

4 EXPERIMENTAL RESULTS

作者主要做了三组实验:一般性的目标识别细粒度图像分类跨领域自适应

对于目标识别:实验mini-ImageNet数据集,该数据集包括100个类别,每个类别包括600张图像,使用64个类别作为基类、16个类别做验证、20个做测试;

对于细粒度分类:实验使用CUB数据集,该数据集包括200个类别、11788张图像,取其中100个作为基类、50个做验证、50个做测试;

对于跨领域场景:实验使用mini-ImageNet数据集作为基类、50个来自CUB数据集的类做验证、50个来自CUB数据集的类做测试。评估跨领域场景允许我们理解小样本学习中的领域漂移问题。

使用标准设定评价:作者将自己跑出来的结果与各方法原始提出论文中的结果做比较,发现两者差异不超过2%,作者猜测差异是由一些实现细节的差异造成的;作者在CUB数据集和mini-ImageNet数据集上分别做了1-样本和5样本的实验,结果证明提出的基准模型++效果很好。

网络深度增加的影响

作者进一步通过实验查看特征提取网络深度对小样本分类模型性能的影响。结果证明随着网络层数加深,各方法在CUB数据集上的性能差异减小在mini-ImageNet数据集上进行的5-样本实验证明一些基于元学习的小样本分类方法性能不如基准模型

基类和目标类间领域差异的影响

作者通过实验验证领域漂移对各种小样本分类算法的影响得出结论当前的小样本分类算法不能很好地应对领域漂移问题随着领域差异变大,学习基类和新类间的领域适应性将变得越来越重要

进一步适应的影响:得出结论在元训练阶段学会领域自适应将会是基于元学习的小样本学习研究的未来重要方向

5 CONLCUSIONS

本文中,作者调查了小样本分类标准评估设定的局限性,通过在相同设定下比较不同方法,证明基准方法++在标准设定下可以取得与SOTA可比较的性能,而带有较强特征提取能力的基准方法在CUB和mini-ImageNet数据集能够取得与SOTA可比较的性能。在考虑到领域漂移设定下,基准方法优于经典的元学习算法。作者公开了源代码以促进领域的发展,指出在小样本分类中考虑领域漂移问题和领域适应的重要性。

这篇关于论文阅读笔记:A Closer Look at Few-shot Classification的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/932793

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓