论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》

本文主要是介绍论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

小样本学习&元学习经典论文整理||持续更新

核心思想

  本文提出了一种基于度量学习的小样本学习算法(TEAM),与其他基于度量学习的算法相比,本文在特征提取阶段采用了一种Task Internal Mixing (TIM)数据增强方法,设计了一种能够根据每个Episode进行自适应调整的距离度量方法Episodic-wise Adaptive Metric(EAM),并采用了一种双向相似性度量方法(Bi-SIM)来计算分类概率。算法的处理过程如下图所示
在这里插入图片描述
  首先在特征提取阶段采用了TIM的数据增强方法来扩充数据集,对于每个任务中的两个样本 x i x_i xi x j x_j xj,按照如下的方式进行融合
在这里插入图片描述
式中 ω \omega ω是从[0.5,1.0]中随机采样得到的。本质上,TIM加入了一个先验,即如果两个样本在原始像素空间中相似,那么它们在特征空间中可能更接近。特征提取网络 f θ f_{\theta} fθ采用如下损失函数进行训练
在这里插入图片描述
式中 M T i M_{\mathcal{T}_i} MTi就是下面将要介绍的根据Episode进行自适应调整的距离度量方法。
  然后,作者设计了EAM距离度量方法,给定两个特征向量 x i x_i xi x j x_j xj则二者之间的距离可以定义为下式
在这里插入图片描述
式中矩阵 M t M_t Mt参数化了向量空间中的一种马氏距离,例如当 M t M_t Mt为单位矩阵是,上式就表示欧氏距离。作者的想法就是通过优化的方式,对每个Episode都寻找到一个最优的 M t M_t Mt,使得相似的样本之间距离更小,不相似的样本之间距离更大,为了实现这个目标,作者提出以下优化问题
在这里插入图片描述
式中 M \mathcal{M} M表示相似样本的集合, C \mathcal{C} C表示不相似样本的集合,如何构建这两个集合后面会有介绍。利用拉格朗日乘子法可将上式转化为
在这里插入图片描述
式中
在这里插入图片描述
与PN算法相类似,类别 C C C对应的支持集 S C S_C SC,其类别原型 p c p_c pc
在这里插入图片描述
则相似样本集 M \mathcal{M} M由三类样本构成:第一类 x i x_i xi x j x_j xj属于同一支持集, { x i ∈ S C , x j ∈ S C , i ≠ j } \left \{x_i\in S_C, x_j\in S_C, i\neq j\right \} {xiSC,xjSC,i=j};第二类 x i x_i xi属于 S C S_C SC,而 x j x_j xj属于该类对应的原型向量, { x i ∈ S C , x j ∈ P C } \left \{x_i\in S_C, x_j\in P_C\right \} {xiSC,xjPC};第三类 x j x_j xj是查询集 Q Q Q x i x_i xi k k k个最近邻, { x i ∈ S C , x j ∈ N ( x i , k , Q ) j } \left \{x_i\in S_C, x_j\in N(x_i,k,Q)j\right \} {xiSC,xjN(xi,k,Q)j}
不相似样本集 C \mathcal{C} C由两类样本构成:第一类 x i x_i xi x j x_j xj属于不同的原型向量集, { x i ∈ P C , x j ∈ P C ′ , C ≠ C ′ } \left \{x_i\in P_C, x_j\in P_{C'}, C\neq C'\right \} {xiPC,xjPC,C=C};第二类 x j x_j xj属于训练集中的类别 C t r a i n C_{train} Ctrain对应的原型向量 P T P_T PT { x i ∈ P C , x j ∈ P T } \left \{x_i\in P_C, x_j\in P_{T}\right \} {xiPC,xjPT}
为了寻找到最优的 M t M_t Mt,需要对 d × d d\times d d×d个参数进行优化( d d d表示特征向量的维度),而对于一个Episode而言,其中所有的样本组合可能也不够 d × d d\times d d×d个,因此得到的模型就很容易过拟合。为了解决这个问题,作者引入了新的正则化约束
在这里插入图片描述
M 0 M_0 M0是一个与小样本任务先验有关的矩阵,上式本质上是约束了由 M t M_t Mt M 0 M_0 M0描述的两个混合高斯分布之间的KL散度。综上可以得到 M t M_t Mt的优化目标函数
在这里插入图片描述
但是如果采用SGD或其他的凸优化方法来求解上式计算复杂度将相当大,毕竟对于每个Episode都要计算一次,因此作者引入一种新的计算方法
在这里插入图片描述
M t ∗ M_t^* Mt表示最优解,为了进一步引入特征相关性信息,作者又在上式基础上增加了任务协方差矩阵 Σ t \Sigma_t Σt
在这里插入图片描述
则最终的EAM距离度量矩阵为
在这里插入图片描述
  最后,本文又提出一种双向相似性度量方法(Bi-SIM)来计算分类概率,正常的概率计算方法都是利用Softmax函数计算查询样本 x i x_i xi属于类别 c c c的概率 s i → c s_{i\rightarrow c} sic
在这里插入图片描述
而作者指出还应该计算原型向量 p c p_c pc属于查询样本 x i x_i xi的概率
在这里插入图片描述
最终的分类概率为二者的乘积
在这里插入图片描述
  作者指出该策略能够有效地提高相似性度量方法的鲁棒性。可以看到上面的EAM计算和Bi-SIM计算过程中都用到了查询集中的样本,因此本文也属于直推学习(Transductive)类型。

实现过程

网络结构

  特征提取的主干网络可以采用4-Conv或ResNet-18

创新点

  • 在特征提取网络中引入TIM数据增强方法
  • 设计了EAM距离度量函数,根据每个Episode寻找最佳的距离度量函数
  • 设计了Bi-SIM双向相似性度量方法,用于分类概率计算

算法评价

  本文引入和设计了非常多新的概念和方法,尤其是核心内容EAM度量方法的设计部分,涉及到了半正定规划(SDP),优化理论,信息论和正则化约束中的许多概念,看起来还是很复杂的。但就实验结果来看,本文在多个数据集上的效果与同时期的基于度量学习的方法相比都没有明显的优势,只是在CUB-200数据集上取得了不错的效果。一顿操作猛如虎,但效果也就一般。

如果大家对于深度学习与计算机视觉领域感兴趣,希望获得更多的知识分享与最新的论文解读,欢迎关注我的个人公众号“深视”。在这里插入图片描述

这篇关于论文阅读笔记《Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning》的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/230174

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

数学建模笔记—— 非线性规划

数学建模笔记—— 非线性规划 非线性规划1. 模型原理1.1 非线性规划的标准型1.2 非线性规划求解的Matlab函数 2. 典型例题3. matlab代码求解3.1 例1 一个简单示例3.2 例2 选址问题1. 第一问 线性规划2. 第二问 非线性规划 非线性规划 非线性规划是一种求解目标函数或约束条件中有一个或几个非线性函数的最优化问题的方法。运筹学的一个重要分支。2

【C++学习笔记 20】C++中的智能指针

智能指针的功能 在上一篇笔记提到了在栈和堆上创建变量的区别,使用new关键字创建变量时,需要搭配delete关键字销毁变量。而智能指针的作用就是调用new分配内存时,不必自己去调用delete,甚至不用调用new。 智能指针实际上就是对原始指针的包装。 unique_ptr 最简单的智能指针,是一种作用域指针,意思是当指针超出该作用域时,会自动调用delete。它名为unique的原因是这个

查看提交历史 —— Git 学习笔记 11

查看提交历史 查看提交历史 不带任何选项的git log-p选项--stat 选项--pretty=oneline选项--pretty=format选项git log常用选项列表参考资料 在提交了若干更新,又或者克隆了某个项目之后,你也许想回顾下提交历史。 完成这个任务最简单而又有效的 工具是 git log 命令。 接下来的例子会用一个用于演示的 simplegit

记录每次更新到仓库 —— Git 学习笔记 10

记录每次更新到仓库 文章目录 文件的状态三个区域检查当前文件状态跟踪新文件取消跟踪(un-tracking)文件重新跟踪(re-tracking)文件暂存已修改文件忽略某些文件查看已暂存和未暂存的修改提交更新跳过暂存区删除文件移动文件参考资料 咱们接着很多天以前的 取得Git仓库 这篇文章继续说。 文件的状态 不管是通过哪种方法,现在我们已经有了一个仓库,并从这个仓