本文主要是介绍ImageNet Classification with Deep Convolutional Neural Networks笔记(摘要版),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
Contents
1.全部架构
2.降低过拟合
3.学习细节
4.结果
5.讨论
本笔记为论文的摘要版,详细数据和论文详解见: http://www.gageet.com/2014/09140.php
本文训练了一个深度卷积神经网络,来将ILSVRC-2010中1.2M的高分辨率图像数据分为1000类。测试结果,Top-1和Top-5的错误率分别为37.5%和17%,优于当时最优的水平。后来作者利用该种模型的变体参与了ILSVRC-2012比赛,以Top-5错误率15.3%遥遥领先亚军的26.2%。最后文章发表于NIPS 2012。
该神经网络包含60M参数和650K神经元,用5个卷积层(其中某些层与亚采样层连接)、三个全连接层(包括一个1K门的输出层)。为使训练更快,文章采用非饱和神经元,包括了大量不常见和新的特征来提升性能,减少训练时间(详见:三 结构)。并利用了一个高效的GPU应用进行卷积运算。在全连接层中,为避免过拟合,文章采用了一种叫做“dropout”的方法(详见:四 降低过拟合)。
最终网络包含5层卷积层和3层全连接层。而这个层深度很重要,因为移除任何一个卷积层,将会导致更差的结果。网络大小主要受限于GPU的内存和训练时间。实验证明,本网络在有两个GTX 580 3GB GPU的机器上训练了5-6天。实验结果显示,如果GPU更快或数据集更大,实验结果将会更好。
具体的实现上,这篇文章在架构上面的一些改进在于:
1.ReLU非线性特征
一句话概括:不用simgoid和tanh作为激活函数,而用ReLU作为激活函数的原因是:加速收敛。
因为sigmoid和tanh都是饱和(saturating)的。何为饱和?个人理解是把这两者的函数曲线和导数曲线plot出来就知道了:他们的导数都是倒过来的碗状,也就是,越接近目标,对应的导数越小。而ReLu的导数对于大于0的部分恒为1。于是ReLU确实可以在BP的时候能够将梯度很好地传到较前面的网络。
2.在多GPU上训练
在每个GPU上放1/2的神经元,但只有某些层才能进行GPU间的通信,在连接与不连接的平衡中找到性能与准确的平衡点。
3.局部响应标准化
一句话概括:本质上,这个层也是为了防止激活函数的饱和的。
个人理解原理是通过正则化让激活函数的输入靠近“碗”的中间,从而获得比较大的导数值。所以从功能上说,跟ReLU是重复的。
不过作者说,从试验结果看,LRN操作可以提高网络的泛化能力,将错误率降低了大约1个百分点。
4.重叠采样
一句话概括,从试验结果看,作者认为Overlapping之后,能够减少网络的过拟合。将Top-1和Top-5的错误率分别降低了0.4%和0.3%(与s=2,z=2相比)。
全部架构
网络包括八个有权值的层。前五层是卷积层,剩下的三层是全连接的。最后一个全连接层是输出层。第二、四、五个卷积层只与上层在同一个GPU上的Kernel Map(下文称特征图)连接,第三个卷积层与第二个卷积层的所有特征图连接。全连接层的神经元与上一层的所有神经元连接(即改进二)。响应标准化层在第一和第二个卷积层之后(改进三),降采样层在响应标准化层和第五个卷积层之后(改进四)。而ReLU非线性公式在每个卷积层和全连接层都有应用(改进一)。
降低过拟合
1.数据增强
通过提取图片的5个224*224切片(中间和四角)和它们的水平翻转来做出预测,预测结果为十次预测的平均值。
第二种数据增强的方式为改变训练图像RGB通道的强度,对RGB空间做PCA,然后对主成分做一个(0, 0.1)的高斯扰动。结果让错误率又下降了百分一。
2.Dropout
将某些层隐藏,按照50%的概率输出0。这些隐藏的神经元不会参加CNN的forward过程,也不会参加back propagation过程。
测试中,我们在前两个全连接层使用了该方法,利用他们所有的神经元,但其输出都乘以了0.5。没有dropout,我们的网络将会产生严重的过拟合。但dropout也使达到收敛的迭代次数增加了一倍。
学习细节
在模型中,0.9倍动量,权值衰减为0.0005,虽然权值衰减值很小,但是对于学习很重要,它减小了模型了训练错误概率。
结果
在ILSVRC-2012测试中CNNs方法Top-5错误率为18.2%,而5种相似CNN结构平均结果的Top-5的错误率为16.4%,将两个预处理后的CNN和上述5CNN平均后的结果进行平均化最后得到的错误率为15.3%。而当时第二的队伍利用SIFT+FVs的错误率为26.2%。
讨论
每移走一层中间的层,Top-1的错误率将会增高2%。
但为了简化实验,文章没有使用任何无监督学习。如果那样,那么在更大规模的网络和更长时间训练的情况下,我们得结果就能得到提高。
这篇关于ImageNet Classification with Deep Convolutional Neural Networks笔记(摘要版)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!