在深度学习中减少标签需求2~5x,来自Deep Mind的CPC2.0

2024-06-21 08:48

本文主要是介绍在深度学习中减少标签需求2~5x,来自Deep Mind的CPC2.0,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

点击上方“AI公园”,关注公众号,选择加“星标“或“置顶”


作者:Less Wright

编译:ronghuaiyang

导读

通过得到更好的表征来减少对标签的需求。

CPC 2.0的实践 —— 只有1%的标记数据,达到74%的准确性(来自论文)

目前针对视觉、音频等的深度学习需要大量的人工标注数据,每个类别都有很多样本,这样才能训练一个分类器达到可接受的精度。

相比之下,人类只需要看到一个类别的几个例子,就可以开始正确和准确地识别和分类这个类的未来样本。

不同之处在于,人类能够快速准确地生成事物的心理“表征”,然后利用这些表征灵活地解释未来的变化。例如,在看了一些蓝鸦的图片后,我们可以对蓝鸦做一个心理模型或表示,然后在新的图片中发现并准确识别蓝鸦,即使是面对不同的角度、不同的角度等。深度学习努力以同样的方式构建表示,因此需要训练大量、大量被标记的样本(图像被“增强”以显示不同的角度和视角),以可靠地处理未来数据并成功的泛化。

然而,由于Deep Mind早期突破性的“CPC”(即Contrastive Predictive Coding)的新改进,导致对大量标记数据的需求,在表示能力方面的差距现在可能正在迅速缩小。

这个工作,CPC 2.0,在一篇名为“Data Efficient Image Recognition with Contrastive Predictive Coding”的新论文中被提出。

利用CPC 2.0,图像分类和识别神经网络能够在仅对少量数据进行训练后更好地构建允许强泛化的表示,越来越接近人类的表现能力。

Performance结果:一些比较揭示了重要性 —— 用CPC 2训练的图像分类器和只用了1%的ImageNet数据达到了78%的top5的准确率,优于在多5倍的数据上监督训练。

继续对所有可用图像进行训练(100%),CPC2 ResNet的表现优于全监督的系统,在全数据集上进行了训练,提高了3.2%(最高精度)。请注意,只用一半的数据集(50%),CPC ResNet的准确性与全监督的NN训练的数据的100%匹配。

最后,为了展示CPC表示的普遍性——通过使用CPC2 ResNet和使用转移学习进行对象检测(PASCAL-VOC 2007数据集),它实现了76.6%的新性能,超过了之前的记录2%。

CPC为什么能工作?根据作者的假设,这里的核心概念是CPC可能允许更好的空间表征,从而使人工系统更接近生物表征,帮助缩小两者之间的差距。

这与他们指出的一项一般原则有关:

深度学习的新原则 —— “良好的表征”应该使自然信号的时空变化更可预测。(引自论文)

CPC如何工作

CPC2概述(来自论文)

简化后,CPC2的工作步骤如下:

1、将图像分割成重叠的方块,或“patches”。

2 、通过特征提取器运行每个patch(上图中的蓝色堆栈),最终得到平均池化层,从而得到最终的表示向量(上图中的细条)。

3、基于局部(上图中的红色块)和分割阈值(即top vs bottom),将局部特征向量分组,构造masked ConvNets。在上面的这个例子中,构造中心点的上下文网络。

4 、使用上下文网络(掩蔽卷积神经网络)对特征向量的分界线预测/识别特征向量。在这种情况下,从其他图像的特征向量的负样本中预测哪些特征向量在中心下方(见红色块上向下的箭头)。

特征向量预测的质量是通过对比损失来衡量的,因此得名对比预测编码。

全损失函数称为InfoNCE,是由噪声对比估计引起的。NCE可以最大化给定上下文向量和目标特征向量之间的互信息量。

InfoNCE损失函数(来自论文)。

5、去掉masked ConvNet,用标准线性分类器代替,用标注数据开始训练/评估。

通过这样做,神经网络被迫建立更好的表示,从而减少对更多标记数据的需求,并能够更好地泛化。

从CPC到CPC 2.0

改进包括层归一化,随机的颜色丢弃,额外的Patch增强

CPC v1论文:Representation Learning with Contrastive Predictive Coding

在此基础上,作者通过叠加一系列的改进来构建 CPC v2,从而使最终精度大幅提高,如上所示。详细信息在文章中,但我将强调上面两个最大的提升。

数据增强 —— 作者发现,通过减少图像上3个颜色通道中的2个,可以起到很好的增强作用(+3%)。然后,他们通过增加剪切、旋转、颜色变换等进一步提高了性能,又增加了4.5%的收益。

通过从ResNet-101迁移到ResNet -161(定制),增加了5%的提升。此外,通过整合更大的patch,他们能够将结果再提高2%。

通过对四个方向(上/下,左/右)的预测和对方向子集的预测来提高准确性。

其他的变化是让预测在各个方向运行,这又增加了4.5%(见上图)。

结论:CPC 2.0为“无监督学习”设定了一个新的基准,并展示了一种新的方法来帮助NN构建更好的表征,从而以一种更接近人类/生物方法的方式学习。这里的关键概念是,减少时空变化的表示法通常是AI未来的发展方向,因为这将减少学习所需的数据。作者指出,CPC是任务不确定的 —— 而本文关注的视觉、语言、音频等都是CPC训练的可选类型,并且可能对使用多模态输入但数据稀缺的机器人特别有用。

—END—

英文原文:https://medium.com/@lessw/reducing-your-labeled-data-requirements-2-5x-for-deep-learning-google-brains-new-contrastive-2ac0da0367ef

请长按或扫描二维码关注本公众号

喜欢的话,请给我个好看吧

这篇关于在深度学习中减少标签需求2~5x,来自Deep Mind的CPC2.0的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1080757

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

【Prometheus】PromQL向量匹配实现不同标签的向量数据进行运算

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN全栈领域优质创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开发,小程序开发,人工智能,js逆向,App逆向,网络系统安全,数据分析,Django,fastapi

内核启动时减少log的方式

内核引导选项 内核引导选项大体上可以分为两类:一类与设备无关、另一类与设备有关。与设备有关的引导选项多如牛毛,需要你自己阅读内核中的相应驱动程序源码以获取其能够接受的引导选项。比如,如果你想知道可以向 AHA1542 SCSI 驱动程序传递哪些引导选项,那么就查看 drivers/scsi/aha1542.c 文件,一般在前面 100 行注释里就可以找到所接受的引导选项说明。大多数选项是通过"_

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识