NCL论文简单解读

2023-11-02 06:20
文章标签 简单 解读 论文 ncl

本文主要是介绍NCL论文简单解读,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

NCL

Nested Collaborative Learning for Long-Tailed Visual Recognition

引言

  • 论文链接
  • 官方代码

先看一波实验结果(数据来自paperswithcode,截图时间2022年5月10日)
论文结果
可以看到,两个第一,两个第二,效果海星。

请注意,下文中,多专家就是多模型

摘要

提出了一种嵌套协作学习(NCL),它通过协作学习多个模型来解决这个问题。 NCL由两个核心组件组成,即嵌套个体学习(NIL)和嵌套平衡在线蒸馏(NBOD),分别侧重于单个模型的个体监督学习和多个模型之间的知识转移。

为了更彻底地学习表示,NIL 和 NBOD 都以嵌套的方式制定,其中不仅从完整的角度对所有类别进行学习,而且从部分角度对一些困难的类别进行学习。关于部分视角的学习,我们通过使用提出的硬类别挖掘(HCM)专门选择具有高预测分数的负类别作为硬类别。在 NCL 中,两个角度的学习是嵌套的、高度相关的和互补的,不仅有助于网络捕捉全局和鲁棒的特征,而且捕捉到细致的区分能力。此外,自监督进一步用于特征增强。

广泛的实验证明了我们的方法的优越性,无论是通过使用单个模型还是集成模型,都优于最先进的方法。

正文

图1

受到如图1所示的简单实验的启发:不同的网络变化很大,特别是在尾部类中,即使它们具有相同的网络结构和相同的训练设置。这意味着学习过程中的巨大不确定性。减轻不确定性的一种可靠的解决方案是通过多个专家进行协作学习,即每个专家可以是其他人的老师,也可以是学生来学习其他人的额外知识。

基于此,我们提出了一种用于长尾视觉识别的嵌套协作学习 (NCL)。NCL包含两个主要的重要组成部分,即嵌套的个人学习 (NIL) 和嵌套的平衡在线蒸馏 (NBOD),前者旨在增强每个网络的区分能力,而后者则在任何两个专家之间协作地转移知识。

NCL和NBOD都以嵌套方式执行,其中NCL或NBOD从所有类别的完整角度进行有监督的学习或蒸馏,并且还从专注于某些重要类别的部分角度来实现。此外,我们提出了一种硬类别挖掘 (HCM) 来选择硬类别作为重要类别,其中硬类别被定义为不是真实类别但具有较高预测分数,容易导致分类错误的类别。

不同角度的学习方式是嵌套的,相关的和互补的,这有助于全面的表征学习。此外,受自监督学习的启发 ,为每个专家采用了一个额外的移动平均模型来进行自监督,从而以无监督的方式增强了特征学习。

在提出的 NCL 中,每个专家都与其他专家协作学习,允许任何两个专家之间的知识转移。 NCL 促进每个专家模型达到更好甚至可与集成模型相媲美的性能。因此,即使使用单个专家,它也可以胜任预测。我们的贡献可以总结如下:

  • 提出了一种嵌套协作学习(NCL)来同时协作学习多个专家,这使得每个专家模型都可以从其他人那里学习额外的知识
  • 提出了嵌套个体学习(NIL) 和嵌套平衡在线蒸馏(NBOD) 来从对所有类别的全面视角和专注于困难类别的部分视角进行学习。
  • 所提出的方法在包括 CIFAR-10/100-LT、Places-LT、ImageNet-LT 和 iNaturalist 2018 在内的五个流行数据集上获得了优于现有技术的显着性能。

相关工作的缺点

  • 类重新平衡提高了整体性能,但通常会牺牲头部类的准确性。
  • 多阶段训练方法可能依赖于启发式设计。
  • 当前的多专家方法大多采用不同的模型从不同方面学习知识,而它们之间的相互监督是不足的。
  • 一般使用一组模型来进行预测,这导致推理阶段的复杂性增加。

方法

架构图

难(硬)类别挖掘(HCM)

hard category 是指不是真实类别但具有高预测分数的类别。 可以通过比较模型输出的值来选择难的类别

硬类别挖掘,说是自己提出来的,就有点脸皮厚了。其实大家好多都这么搞的。

嵌套个体学习 (NIL)

没什么好讲的,只是在loss设计上加上了难类别的损失

嵌套平衡在线蒸馏(NBOD)

对所有类别进行蒸馏,而且对 HCM 挖掘的一些困难类别进行蒸馏,这有助于网络捕获精细的区分能力。 采用 Kullback Leibler (KL) 散度来执行知识蒸馏。

loss设计同NIL,考虑难类别的loss

通过自监督增强特征

采用实例判别作为自监督代理任务,其中每个图像被视为一个不同的类别。
类似moco使用了队列

这篇关于NCL论文简单解读的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/328707

相关文章

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

hdu2289(简单二分)

虽说是简单二分,但是我还是wa死了  题意:已知圆台的体积,求高度 首先要知道圆台体积怎么求:设上下底的半径分别为r1,r2,高为h,V = PI*(r1*r1+r1*r2+r2*r2)*h/3 然后以h进行二分 代码如下: #include<iostream>#include<algorithm>#include<cstring>#include<stack>#includ

usaco 1.3 Prime Cryptarithm(简单哈希表暴搜剪枝)

思路: 1. 用一个 hash[ ] 数组存放输入的数字,令 hash[ tmp ]=1 。 2. 一个自定义函数 check( ) ,检查各位是否为输入的数字。 3. 暴搜。第一行数从 100到999,第二行数从 10到99。 4. 剪枝。 代码: /*ID: who jayLANG: C++TASK: crypt1*/#include<stdio.h>bool h

uva 10387 Billiard(简单几何)

题意是一个球从矩形的中点出发,告诉你小球与矩形两条边的碰撞次数与小球回到原点的时间,求小球出发时的角度和小球的速度。 简单的几何问题,小球每与竖边碰撞一次,向右扩展一个相同的矩形;每与横边碰撞一次,向上扩展一个相同的矩形。 可以发现,扩展矩形的路径和在当前矩形中的每一段路径相同,当小球回到出发点时,一条直线的路径刚好经过最后一个扩展矩形的中心点。 最后扩展的路径和横边竖边恰好组成一个直

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

poj 1113 凸包+简单几何计算

题意: 给N个平面上的点,现在要在离点外L米处建城墙,使得城墙把所有点都包含进去且城墙的长度最短。 解析: 韬哥出的某次训练赛上A出的第一道计算几何,算是大水题吧。 用convexhull算法把凸包求出来,然后加加减减就A了。 计算见下图: 好久没玩画图了啊好开心。 代码: #include <iostream>#include <cstdio>#inclu

uva 10130 简单背包

题意: 背包和 代码: #include <iostream>#include <cstdio>#include <cstdlib>#include <algorithm>#include <cstring>#include <cmath>#include <stack>#include <vector>#include <queue>#include <map>

MCU7.keil中build产生的hex文件解读

1.hex文件大致解读 闲来无事,查看了MCU6.用keil新建项目的hex文件 用FlexHex打开 给我的第一印象是:经过软件的解释之后,发现这些数据排列地十分整齐 :02000F0080FE71:03000000020003F8:0C000300787FE4F6D8FD75810702000F3D:00000001FF 把解释后的数据当作十六进制来观察 1.每一行数据

Java ArrayList扩容机制 (源码解读)

结论:初始长度为10,若所需长度小于1.5倍原长度,则按照1.5倍扩容。若不够用则按照所需长度扩容。 一. 明确类内部重要变量含义         1:数组默认长度         2:这是一个共享的空数组实例,用于明确创建长度为0时的ArrayList ,比如通过 new ArrayList<>(0),ArrayList 内部的数组 elementData 会指向这个 EMPTY_EL

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快