Tensorflow入门教程(三十三)优化器算法简介(Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)

本文主要是介绍Tensorflow入门教程(三十三)优化器算法简介(Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

#
#作者:韦访
#博客:https://blog.csdn.net/rookie_wei
#微信:1007895847
#添加微信的备注一下是CSDN的
#欢迎大家一起学习
#

------韦访 20181227

1、概述

上一讲中,我们发现,虽然都是梯度下降法,但是不同算法之间还是有区别的,所以,这一讲,我们就来看看它们有什么不同。

2、梯度下降常用的三种方法

为了博客的完整性,这里再来重复的说一下什么是梯度下降法,简单说,就是寻找一个参数θ,使得函数J(θ)最小。《机器学习入门(四)回归算法》(链接:https://blog.csdn.net/rookie_wei/article/details/83117493)中,我们简单的提了梯度下降常用的三种方法:批量梯度下降法(Batch gradient descent,BGD)、随机梯度下降法(Stochastic gradient descent,SGD)、小批量梯度下降法(mini-batch gradient descent,MBGD)。

批量梯度下降法:

每次迭代都考虑所有样本,这样做容易得到最优解,但是速度很慢。

参数θ的迭代训练如上式,其中,表示学习率,函数J(θ)的梯度,

随机梯度下降:

每次随机找一个样本,这样迭代的速度很快,但是不一定每次都朝着收敛方法,效果比较差。

上式中,表示学习率,表示随机选中的样本。

SGD经常进行高方差更新,导致目标函数上图所示剧烈波动。

小批量梯度下降法: 每次迭代选择一小部分数据来算,这样就达到了一个速度和效果的平衡,

上式中,表示学习率,表示小批量选中的样本。

我们在TensorFlow中训练就是每次一个batch数据,一般来说,batch大一点,效果会比较好,但是实际应用中也要考虑内存和效率,一般设置为50~256。

3、梯度下降法的挑战

1)学习率的选择不好确定。从上面的三个式子可以看出,不管用什么方法,都得设置一个学习率。学习率决定了每次更新的速度,而学习率的设置是很难的,如果幅度过大,可能导致参数在极优值两侧来回移动,如果幅度过小,就会大大降低优化速度。

2)如果采用在训练期间调整学习率的方法,比如,根据预先定义的计划或者当两个epochs之间的目标的变化低于某个阈值时降低学习率,但是这些计划和阈值也得提前定义。

3)此外,相同的学习率适用于所有参数的更新,如果我们的数据是稀疏的,并且我们的特性具有非常不同的频率,我们可能不希望将它们全部更新到相同的程度,而是对出现频率低的特性进行更大的更新。

4)对于非凸误差函数的另一个关键挑战是避免陷入其众多的次优局部极小处。困难实际上不是来自局部极小值,而是来自鞍点,即一个维度向上倾斜,另一个维度向下倾斜的点。这些鞍点通常周围的error是一样的,这使得SGD很难逃脱,因为梯度在所有维度上都接近于零。

一个光滑函数的鞍点如上图所示,x轴向上曲,y轴向下曲。

4、Momentum

SGD很容易被困在沟壑(ravine)中,沟壑即在一个维度上的曲线比另一个维度上的曲线陡得多的区域。在这种情况下,SGD在沟壑的斜坡上震荡,同时仅在底部时朝着局部最优状态缓慢前行,如下图所示,

 Momentum是一种有助于SGD在收敛方向上加速并且抑制震荡的方法。它通过将上一步的更新向量添加到当前更新向量来实现的。这么说可能有点懵逼,上公式就明白了,

其中,一般设置为0.9,对比批量梯度下降的公式,

就像我们把球推下山坡,当球向下滚动时,会积累动量,在途中变得越来越快。

在参数更新上类似的,对于梯度指向相同方向的维度,动量项会增加,而对梯度方向改变的维度,动量项会减少更新,所以,我们得到了更快的收敛和减少震荡。

如下图所示,

缺点:这种算法下,“小球”是一个盲目的沿着斜坡滚下山的“笨球”,我们想要一个更聪明的球,一个知道它想去哪的球,这样它就知道在再次上坡之前减速。下一个算法就是解决这个缺点的。

5、Nesterov accelerated gradient(NAG)

NAG就是一个能让动量项具有“先见之明”的方法。Momentum每下降一步是由前面下降方向的累积和当前点的梯度方向组合而成,而NAG是按照前面一小步位置的“超前梯度”和当前梯度进行组合,也就是说,小球先往前走一步,然后再按照那个位置来修正当前这一步的梯度方向,根据前一步“往回看”。根据下面的图来对比Momentum和NAG这两个算法的工作原理,

如上图所示,Momentum首先计算当前梯度(蓝色小矢量),然后在更新的累积梯度(蓝色大矢量)的方向上进行一次大跳跃。而NAG则首先在先前的累积梯度(棕色矢量)方向上进行一次大跳跃,再测量梯度,然后进行校正(红色矢量),绿色矢量就是NAG的更新结果。这种预期的更新防止了我们走得太快,并使响应能力提高,这显著提高了RNN在许多任务上的性能。

参数更新公式如下,

当学习率η=0.01, 衰减率 γ=0.9γ=0.9时,对比一下Momentum和NAG的收敛速度如下图所示,

可以看到,NAG震荡幅度小于Momentum,收敛速度要快于Momentum。

 

6、Adagrad

自适应梯度算法(Adaptive gradient algorithm,Adagrad)可以对低频的参数做较大更新,对高频的参数做较小的更新,因此,该算法对于稀疏数据的表现很好,极大的提高了SGD的健壮性。

下面,我们用表示t时刻下参数的梯度,

SGD更新每个参数的式子如下,

上式中,每个参数使用相同的学习率,而Adagrad根据为计算参数的过去梯度,修改每个参数的每个时刻t的学习率。式子如下, 

 

其中,是一个对角矩阵,(i,i)元素是t时刻,参数的梯度平方和,Ɛ是一个避免被零除的平滑项。

缺点:Adagrad的主要缺点是它在分母中平方梯度的累积,累积在训练中不断增加,这就导致了学习率不断收缩,最终变得无穷小,导致模型几乎无法再训练。接下来的Adadelta算法就是解决这个问题的。

7、Adadelta

Adadelta是Adagrad的扩展,Adadelta不会累积过去所有的平方梯度,而是过去所有的平方梯度的衰减平均值,时刻t的平均值仅取决于之前的平均值和当前梯度,如下式所示。

 一般设为0.9,则Adadelta的参数更新式子如下,

 由于分母相当于梯度的均方根(RMS),所以,可以用RMS简写上式如下,

论文作者认为,更新应该具有与参数相同的假设单位,所以他们首先定义另一个指数衰减平均值,这次,不是平方梯度,而是平方参数更新,如下式,

所以,参数更新的均方根误差为,

 由于是未知的,我们用上一时刻的参数更新的RMS近似它,所以我们用来替换学习率η,最终得到Adadelta更新规则如下,

 由上式可知,我们甚至到不需要设置默认的学习率η,因为学习率η已经在更新规则中消除了。

8、RMSprop

RMSprop和Adadelta算法一样,都是为了解决Adagrad算法急剧下降的学习率的算法,RMSprop与Adadelta的第一种形式相同,这两个算法是同一时间独立开发的,英雄所见略同,公式如下,

 一般设置为0.9,学习率η设置为0.001 。

9、Adam

自适应矩估计(Adaptive Moment Estimation,Adam)是另一种参数自适应学习率的方法,有点相当于RMSprop+Momentum,Adam除了像RMSprop存储过去梯度的平方的指数衰减平均值(如Adadelta和RMSprop) ,还像Momentum一样保留过去梯度的指数衰减平均值,的式子如下,

 当初始化为0的向量时,Adam的作者发现它们会偏向于0,特别是在初始时间步骤,特别是当衰变率很小时(即接近1)。可以通过计算偏差校正后的来抵消这些偏差,

 然后,使用这些来更新参数,式子如下,

一般情况下,设置为0.9,设置为0.999,Ɛ设置为

10、各算法的动态效果图

11、如何选择优化器

1)如果训练的数据是稀疏的,则选择一个自适应学习率的算法(Adagrad、Adadelta、RMSprop、Adam)。

2)RMSprop是Adagrad一个扩展,它处理的是急剧下降的学习率。

3)Adam则为RMSprop添加了偏差校正和动量,随着梯度变得越来越稀疏,Adam在优化结束时略优于RMSprop。Adam可能是上述算法中最好的选择。

4)Adadelta、RMSprop、Adam三个算法非常相似,在类似的情况下,效果都不错。

 

总结:

优化器算法不止这几个,还有比如AdaMax、Nadam、AMSGrad等,这里就不讲了。

参考博客:

http://ruder.io/optimizing-gradient-descent/index.html

 

如果您感觉本篇博客对您有帮助,请打开支付宝,领个红包支持一下,祝您扫到99元,谢谢~~

这篇关于Tensorflow入门教程(三十三)优化器算法简介(Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/214306

相关文章

Deepseek使用指南与提问优化策略方式

《Deepseek使用指南与提问优化策略方式》本文介绍了DeepSeek语义搜索引擎的核心功能、集成方法及优化提问策略,通过自然语言处理和机器学习提供精准搜索结果,适用于智能客服、知识库检索等领域... 目录序言1. DeepSeek 概述2. DeepSeek 的集成与使用2.1 DeepSeek API

Tomcat高效部署与性能优化方式

《Tomcat高效部署与性能优化方式》本文介绍了如何高效部署Tomcat并进行性能优化,以确保Web应用的稳定运行和高效响应,高效部署包括环境准备、安装Tomcat、配置Tomcat、部署应用和启动T... 目录Tomcat高效部署与性能优化一、引言二、Tomcat高效部署三、Tomcat性能优化总结Tom

解读Redis秒杀优化方案(阻塞队列+基于Stream流的消息队列)

《解读Redis秒杀优化方案(阻塞队列+基于Stream流的消息队列)》该文章介绍了使用Redis的阻塞队列和Stream流的消息队列来优化秒杀系统的方案,通过将秒杀流程拆分为两条流水线,使用Redi... 目录Redis秒杀优化方案(阻塞队列+Stream流的消息队列)什么是消息队列?消费者组的工作方式每

Oracle查询优化之高效实现仅查询前10条记录的方法与实践

《Oracle查询优化之高效实现仅查询前10条记录的方法与实践》:本文主要介绍Oracle查询优化之高效实现仅查询前10条记录的相关资料,包括使用ROWNUM、ROW_NUMBER()函数、FET... 目录1. 使用 ROWNUM 查询2. 使用 ROW_NUMBER() 函数3. 使用 FETCH FI

C#使用HttpClient进行Post请求出现超时问题的解决及优化

《C#使用HttpClient进行Post请求出现超时问题的解决及优化》最近我的控制台程序发现有时候总是出现请求超时等问题,通常好几分钟最多只有3-4个请求,在使用apipost发现并发10个5分钟也... 目录优化结论单例HttpClient连接池耗尽和并发并发异步最终优化后优化结论我直接上优化结论吧,

Java内存泄漏问题的排查、优化与最佳实践

《Java内存泄漏问题的排查、优化与最佳实践》在Java开发中,内存泄漏是一个常见且令人头疼的问题,内存泄漏指的是程序在运行过程中,已经不再使用的对象没有被及时释放,从而导致内存占用不断增加,最终... 目录引言1. 什么是内存泄漏?常见的内存泄漏情况2. 如何排查 Java 中的内存泄漏?2.1 使用 J

Golang的CSP模型简介(最新推荐)

《Golang的CSP模型简介(最新推荐)》Golang采用了CSP(CommunicatingSequentialProcesses,通信顺序进程)并发模型,通过goroutine和channe... 目录前言一、介绍1. 什么是 CSP 模型2. Goroutine3. Channel4. Channe

Java中的Opencv简介与开发环境部署方法

《Java中的Opencv简介与开发环境部署方法》OpenCV是一个开源的计算机视觉和图像处理库,提供了丰富的图像处理算法和工具,它支持多种图像处理和计算机视觉算法,可以用于物体识别与跟踪、图像分割与... 目录1.Opencv简介Opencv的应用2.Java使用OpenCV进行图像操作opencv安装j

Python中的随机森林算法与实战

《Python中的随机森林算法与实战》本文详细介绍了随机森林算法,包括其原理、实现步骤、分类和回归案例,并讨论了其优点和缺点,通过面向对象编程实现了一个简单的随机森林模型,并应用于鸢尾花分类和波士顿房... 目录1、随机森林算法概述2、随机森林的原理3、实现步骤4、分类案例:使用随机森林预测鸢尾花品种4.1

MySQL不使用子查询的原因及优化案例

《MySQL不使用子查询的原因及优化案例》对于mysql,不推荐使用子查询,效率太差,执行子查询时,MYSQL需要创建临时表,查询完毕后再删除这些临时表,所以,子查询的速度会受到一定的影响,本文给大家... 目录不推荐使用子查询和JOIN的原因解决方案优化案例案例1:查询所有有库存的商品信息案例2:使用EX