UnNAS: Are Labels Necessary for Neural Architecture Search?

2023-10-31 20:38

本文主要是介绍UnNAS: Are Labels Necessary for Neural Architecture Search?,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

无监督网络架构搜索

当前业界主流的NAS算法都是利用有监督数据来搜索,然后再用有监督数据(可能和搜索数据不一样)来训练和评估。这篇论文提出一个崭新的方法,利用无监督的数据来搜索架构,称为Unsupervised Neural Architecture Search (UnNAS)。

和其他的NAS算法一样,UnNAS也分成两个阶段:搜索阶段(Search Phase)和评估阶段(Evaluation Phase)。搜索阶段是从预定义的网络搜索空间里探索和选择一个最好的网络模型,UnNAS的搜索阶段采用的是无监督的数据,这是这篇论文最大的创新点。评估阶段是用来判断搜索阶段搜索出来的网络模型是优是劣,一般采用和搜索阶段不一样的数据集来训练网络模型参数和评估精度等指标,在这里UnNAS的方法和当前其他方法一样,也是采用有监督的数据来评估。

在这里插入图片描述
上图表示的是无监督UnNAS和传统无监督深度学习的异同点。传统无监督深度学习在训练阶段使用无监督数据来训练一个确定的网络模型,在评估阶段的时候只是在有监督数据上用来训练网络头部或者当做特征提取器等;UnNAS的搜索阶段对应传统深度学习的训练阶段,只是无监督数据是用来从搜索空间中搜索出一个网络模型,并不用来对搜索出来的模型进行权值训练,在评估阶段的时候使用有监督数据对网络模型从头开始训练。

实验过程

作者接下来做了两种实验,一个是基于采样(sample-based),另一个是基于搜索(search-based)。在基于采样实验中,从搜索空间中随机选取一组小型的网络进行很少epoch的无监督训练,目的是为了证明网络的无监督训练和有监督训练之间存在强关联性。在基于搜索实验中,则是用无监督数据从搜索空间中找到一个最佳的网络。

无监督数据

作者采用了三种方法来构造无监督数据(准确的说,是自监督方法)。

  1. 旋转。将任意一张图片从四个旋转角度(0, 90, 180, 270)中随机挑取一个进行旋转,网络的输出是长度为4的分类头,分别对应这四个角度。
  2. 颜色。输入的图片是一个灰度图,网络的输出是在每个像素点上预测一组预定义的颜色分类(共313类)。
  3. 拼接。将输入图片进行切割成同等大小矩阵块,随机打乱并拼接,网络的输出是预测采用哪种方式拼接。

基于采样的实验

论文从搜索空间中随机挑选了 n = 500 n=500 n=500个网络,分别用上面三种用无监督数据从头训练这个网络模型,也用有监督的数据来训练这些网络。
在基于采样的方法上,论文也做了两种分析,一个是排名相关分析,另一个是随机实验分析。

  1. 排名相关分析。作者分别从DARTS和NAS-Bench-101两个搜索空间上随机挑选 n = 500 n=500 n=500个网络,并在Cifar-10和ImageNet数据集上分别分析三种无监督数据和有监督数据训练出来的模型之间精度的关联性。实验结果如下图所示。

在这里插入图片描述Cifar-10数据集上的实验

在这里插入图片描述ImageNet数据集上的实验

在这里插入图片描述Cifar-10和ImageNet两种数据集上的对比

从图中可以看出,在cifar-10和ImageNet上,甚至在跨数据集上,无监督和有监督的关联值 ρ \rho ρ都几乎达到了0.8左右或者以上,说明用对于网络来说,有监督数据和无监督数据的训练结果具有高度的一致性。

  1. 随机实验分析。随机实验每次从500个网络里面取m个在cifar-10上的网络结果,并选择最佳性能,共选取了 [ n / m ] [n/m] [n/m]次,计算这 [ n / m ] [n/m] [n/m]个网络在ImageNet上的实验结果均值和误差值。作者在ImageNet数据集的实验性能上进行统计,结果如下图。
    在这里插入图片描述
    从图中可以看出,不管是有监督数据还是无监督数据,在cifar-10上训练好的网络,在ImageNet上也同样具有相似的结果。

基于搜索的实验

基于搜索的实验其实就是在做NAS的搜索过程,只是之前的算法采用的有监督的数据,本论文采用的是三种无监督的数据来完成。作者搜索阶段采用的是DARTS的方法,并分别在ImageNet-1K、ImageNet-22K和Citycapes三种数据集上进行搜索。在评估阶段上,作者分别在ImageNet-1K和Citycapes上对搜索出来的模型进行Fully Train,实验的结果如下图所示。

在这里插入图片描述ImageNet上的评估结果

在这里插入图片描述Citycapes上的评估结果

在搜索过程和评估过程中,相同数据集下的实验参数都是一样的。通过实验可以看出,有监督和无监督数据集搜索出来的网络的评估结果基本上是相当的。特别的,在搜索数据和评估数据是一致的条件下,无监督数据搜索出来的网络在ImageNet-1K上进行评估时,效果略差于有监督数据;但是在Citycapes数据集上,无监督搜索出来的网络却优于有监督数据。

这篇关于UnNAS: Are Labels Necessary for Neural Architecture Search?的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/317969

相关文章

探索Elastic Search:强大的开源搜索引擎,详解及使用

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 引入 全文搜索属于最常见的需求,开源的 Elasticsearch (以下简称 Elastic)是目前全文搜索引擎的首选,相信大家多多少少的都听说过它。它可以快速地储存、搜索和分析海量数据。就连维基百科、Stack Overflow、

论文《Tree Decomposed Graph Neural Network》笔记

【TDGNN】本文提出了一种树分解方法来解决不同层邻域之间的特征平滑问题,增加了网络层配置的灵活性。通过图扩散过程表征了多跳依赖性(multi-hop dependency),构建了TDGNN模型,该模型可以灵活地结合大感受场的信息,并利用多跳依赖性进行信息聚合。 本文发表在2021年CIKM会议上,作者学校:Vanderbilt University,引用量:59。 CIKM会议简介:全称C

【Rust项目推荐】Rust search extension 0.7发布!地址栏快速搜索Rust文档、crates的浏览器插件...

大家好, Rust Search Extension是我从2018年开始开发的浏览器插件,方便大家在浏览器地址栏快速搜索官方文档、内置属性、crates和错误码。目前发布了v0.7版! 目前在Reddit上获得了将近200个赞,欢迎大家下载体验。 Reddit帖子:Announcing rust-search-extension v0.7! Search std docs, crates, e

【Rus项目推荐】Rust search extension 0.8发布!快速搜索Rust文档、属性和库的浏览器插件...

Rust Search Extension 是一款可以在地址栏快速搜索Rust文档、crates、内置属性和错误码等的浏览器插件,支持Chrome和Firefox,希望能给每一个Rust开发者带来便利和效率提升。 之前的文章 介绍了0.7版的功能,这篇文章我讲介绍一下Rust Search Extension这一版的新功能: 支持实时搜索top 20K的官方crates支持实时搜索Rust官方书

Rust Search Extension两周年,发布1.0版!

大家好, Rust Search Extension是我从2018年开始开发的浏览器插件,方便Rust开发者在浏览器地址栏快速搜索官方文档、内置属性、crates和错误码等。经过两年多的时间,迭代了12个版本,终于是时候可以发布1.0版了!???????? 这是截止到目前Rust Search Extension取得的一些成绩: 迭代12个版本382个star542个commit5个contri

物体检测之选择性搜索(Selective Search)

物体检测之选择性搜索Selective Search 0 概述1 物体检测和物体识别1.1 滑窗法1.2 候选区域(Region Proposal)算法1.2.1 物体检测之选择性搜索(Selective Search)1.2.1.1 相似度1.2.1.2 效果 2 参考资料 0 概述 本文牵涉的概念是候选区域(Region Proposal ),用于物体检测算法的输入。无论

硬件开发笔记(二十一):外部搜索不到的元器件封装可尝试使用AD21软件的“ManufacturerPart Search”功能

若该文为原创文章,转载请注明原文出处 本文章博客地址:https://hpzwl.blog.csdn.net/article/details/139869584 长沙红胖子Qt(长沙创微智科)博文大全:开发技术集合(包含Qt实用技术、树莓派、三维、OpenCV、OpenGL、ffmpeg、OSG、单片机、软硬结合等等)持续更新中… 硬件相关开发 上一篇:《硬件开发笔记(二十):AD21导入外

ResNeXt - Aggregated Residual Transformations for Deep Neural Networks

《Aggregated Residual Transformations for Deep Neural Networks》是Saining Xie等人于2016年公开在arXiv上: https://arxiv.org/pdf/1611.05431.pdf 创新点 1.在传统Resnet基础上采用group convolution,在不增加参数量的前提下,获得更强的representat

Glancing Transformer for Non-Autoregressive Neural Machine Translation翻译

公众号 系统之神与我同在 图1:机器翻译方法的概率模型。(b)普通的神经机器翻译(NAT)采用条件输入凹痕LM。©掩蔽-预测神经网络翻译(NAT)使用掩蔽LM(MLM)和RE需要多次解码。(d)我们提出的Glancing语言模型(GLM)利用解码器的预测来决定Glancing在训练期间进行采样策略,并且在推理期间只需要一次解码。 摘要 最近关于非自回归神经网络翻译(NAT)的研究旨在,

Age and gender estimation based on Convolutional Neural Network and TensorFlow

训练数据处理 imdb数据提取 gender: 0 for female and 1 for male, NaN if unknown age: 年龄分为101类,分别为从0到100岁. 将训练数据转换为tfrecords格式,命令为, python convert_to_records_multiCPU.py --imdb --nworks 8 --imdb_db /home/rese