Tensorflow入门教程(三十三)优化器算法简介(Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)

本文主要是介绍Tensorflow入门教程(三十三)优化器算法简介(Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

#
#作者:韦访
#博客:https://blog.csdn.net/rookie_wei
#微信:1007895847
#添加微信的备注一下是CSDN的
#欢迎大家一起学习
#

------韦访 20181227

1、概述

上一讲中,我们发现,虽然都是梯度下降法,但是不同算法之间还是有区别的,所以,这一讲,我们就来看看它们有什么不同。

2、梯度下降常用的三种方法

为了博客的完整性,这里再来重复的说一下什么是梯度下降法,简单说,就是寻找一个参数θ,使得函数J(θ)最小。《机器学习入门(四)回归算法》(链接:https://blog.csdn.net/rookie_wei/article/details/83117493)中,我们简单的提了梯度下降常用的三种方法:批量梯度下降法(Batch gradient descent,BGD)、随机梯度下降法(Stochastic gradient descent,SGD)、小批量梯度下降法(mini-batch gradient descent,MBGD)。

批量梯度下降法:

每次迭代都考虑所有样本,这样做容易得到最优解,但是速度很慢。

参数θ的迭代训练如上式,其中,表示学习率,函数J(θ)的梯度,

随机梯度下降:

每次随机找一个样本,这样迭代的速度很快,但是不一定每次都朝着收敛方法,效果比较差。

上式中,表示学习率,表示随机选中的样本。

SGD经常进行高方差更新,导致目标函数上图所示剧烈波动。

小批量梯度下降法: 每次迭代选择一小部分数据来算,这样就达到了一个速度和效果的平衡,

上式中,表示学习率,表示小批量选中的样本。

我们在TensorFlow中训练就是每次一个batch数据,一般来说,batch大一点,效果会比较好,但是实际应用中也要考虑内存和效率,一般设置为50~256。

3、梯度下降法的挑战

1)学习率的选择不好确定。从上面的三个式子可以看出,不管用什么方法,都得设置一个学习率。学习率决定了每次更新的速度,而学习率的设置是很难的,如果幅度过大,可能导致参数在极优值两侧来回移动,如果幅度过小,就会大大降低优化速度。

2)如果采用在训练期间调整学习率的方法,比如,根据预先定义的计划或者当两个epochs之间的目标的变化低于某个阈值时降低学习率,但是这些计划和阈值也得提前定义。

3)此外,相同的学习率适用于所有参数的更新,如果我们的数据是稀疏的,并且我们的特性具有非常不同的频率,我们可能不希望将它们全部更新到相同的程度,而是对出现频率低的特性进行更大的更新。

4)对于非凸误差函数的另一个关键挑战是避免陷入其众多的次优局部极小处。困难实际上不是来自局部极小值,而是来自鞍点,即一个维度向上倾斜,另一个维度向下倾斜的点。这些鞍点通常周围的error是一样的,这使得SGD很难逃脱,因为梯度在所有维度上都接近于零。

一个光滑函数的鞍点如上图所示,x轴向上曲,y轴向下曲。

4、Momentum

SGD很容易被困在沟壑(ravine)中,沟壑即在一个维度上的曲线比另一个维度上的曲线陡得多的区域。在这种情况下,SGD在沟壑的斜坡上震荡,同时仅在底部时朝着局部最优状态缓慢前行,如下图所示,

 Momentum是一种有助于SGD在收敛方向上加速并且抑制震荡的方法。它通过将上一步的更新向量添加到当前更新向量来实现的。这么说可能有点懵逼,上公式就明白了,

其中,一般设置为0.9,对比批量梯度下降的公式,

就像我们把球推下山坡,当球向下滚动时,会积累动量,在途中变得越来越快。

在参数更新上类似的,对于梯度指向相同方向的维度,动量项会增加,而对梯度方向改变的维度,动量项会减少更新,所以,我们得到了更快的收敛和减少震荡。

如下图所示,

缺点:这种算法下,“小球”是一个盲目的沿着斜坡滚下山的“笨球”,我们想要一个更聪明的球,一个知道它想去哪的球,这样它就知道在再次上坡之前减速。下一个算法就是解决这个缺点的。

5、Nesterov accelerated gradient(NAG)

NAG就是一个能让动量项具有“先见之明”的方法。Momentum每下降一步是由前面下降方向的累积和当前点的梯度方向组合而成,而NAG是按照前面一小步位置的“超前梯度”和当前梯度进行组合,也就是说,小球先往前走一步,然后再按照那个位置来修正当前这一步的梯度方向,根据前一步“往回看”。根据下面的图来对比Momentum和NAG这两个算法的工作原理,

如上图所示,Momentum首先计算当前梯度(蓝色小矢量),然后在更新的累积梯度(蓝色大矢量)的方向上进行一次大跳跃。而NAG则首先在先前的累积梯度(棕色矢量)方向上进行一次大跳跃,再测量梯度,然后进行校正(红色矢量),绿色矢量就是NAG的更新结果。这种预期的更新防止了我们走得太快,并使响应能力提高,这显著提高了RNN在许多任务上的性能。

参数更新公式如下,

当学习率η=0.01, 衰减率 γ=0.9γ=0.9时,对比一下Momentum和NAG的收敛速度如下图所示,

可以看到,NAG震荡幅度小于Momentum,收敛速度要快于Momentum。

 

6、Adagrad

自适应梯度算法(Adaptive gradient algorithm,Adagrad)可以对低频的参数做较大更新,对高频的参数做较小的更新,因此,该算法对于稀疏数据的表现很好,极大的提高了SGD的健壮性。

下面,我们用表示t时刻下参数的梯度,

SGD更新每个参数的式子如下,

上式中,每个参数使用相同的学习率,而Adagrad根据为计算参数的过去梯度,修改每个参数的每个时刻t的学习率。式子如下, 

 

其中,是一个对角矩阵,(i,i)元素是t时刻,参数的梯度平方和,Ɛ是一个避免被零除的平滑项。

缺点:Adagrad的主要缺点是它在分母中平方梯度的累积,累积在训练中不断增加,这就导致了学习率不断收缩,最终变得无穷小,导致模型几乎无法再训练。接下来的Adadelta算法就是解决这个问题的。

7、Adadelta

Adadelta是Adagrad的扩展,Adadelta不会累积过去所有的平方梯度,而是过去所有的平方梯度的衰减平均值,时刻t的平均值仅取决于之前的平均值和当前梯度,如下式所示。

 一般设为0.9,则Adadelta的参数更新式子如下,

 由于分母相当于梯度的均方根(RMS),所以,可以用RMS简写上式如下,

论文作者认为,更新应该具有与参数相同的假设单位,所以他们首先定义另一个指数衰减平均值,这次,不是平方梯度,而是平方参数更新,如下式,

所以,参数更新的均方根误差为,

 由于是未知的,我们用上一时刻的参数更新的RMS近似它,所以我们用来替换学习率η,最终得到Adadelta更新规则如下,

 由上式可知,我们甚至到不需要设置默认的学习率η,因为学习率η已经在更新规则中消除了。

8、RMSprop

RMSprop和Adadelta算法一样,都是为了解决Adagrad算法急剧下降的学习率的算法,RMSprop与Adadelta的第一种形式相同,这两个算法是同一时间独立开发的,英雄所见略同,公式如下,

 一般设置为0.9,学习率η设置为0.001 。

9、Adam

自适应矩估计(Adaptive Moment Estimation,Adam)是另一种参数自适应学习率的方法,有点相当于RMSprop+Momentum,Adam除了像RMSprop存储过去梯度的平方的指数衰减平均值(如Adadelta和RMSprop) ,还像Momentum一样保留过去梯度的指数衰减平均值,的式子如下,

 当初始化为0的向量时,Adam的作者发现它们会偏向于0,特别是在初始时间步骤,特别是当衰变率很小时(即接近1)。可以通过计算偏差校正后的来抵消这些偏差,

 然后,使用这些来更新参数,式子如下,

一般情况下,设置为0.9,设置为0.999,Ɛ设置为

10、各算法的动态效果图

11、如何选择优化器

1)如果训练的数据是稀疏的,则选择一个自适应学习率的算法(Adagrad、Adadelta、RMSprop、Adam)。

2)RMSprop是Adagrad一个扩展,它处理的是急剧下降的学习率。

3)Adam则为RMSprop添加了偏差校正和动量,随着梯度变得越来越稀疏,Adam在优化结束时略优于RMSprop。Adam可能是上述算法中最好的选择。

4)Adadelta、RMSprop、Adam三个算法非常相似,在类似的情况下,效果都不错。

 

总结:

优化器算法不止这几个,还有比如AdaMax、Nadam、AMSGrad等,这里就不讲了。

参考博客:

http://ruder.io/optimizing-gradient-descent/index.html

 

如果您感觉本篇博客对您有帮助,请打开支付宝,领个红包支持一下,祝您扫到99元,谢谢~~

这篇关于Tensorflow入门教程(三十三)优化器算法简介(Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/214306

相关文章

Spring Boot + MyBatis Plus 高效开发实战从入门到进阶优化(推荐)

《SpringBoot+MyBatisPlus高效开发实战从入门到进阶优化(推荐)》本文将详细介绍SpringBoot+MyBatisPlus的完整开发流程,并深入剖析分页查询、批量操作、动... 目录Spring Boot + MyBATis Plus 高效开发实战:从入门到进阶优化1. MyBatis

MyBatis 动态 SQL 优化之标签的实战与技巧(常见用法)

《MyBatis动态SQL优化之标签的实战与技巧(常见用法)》本文通过详细的示例和实际应用场景,介绍了如何有效利用这些标签来优化MyBatis配置,提升开发效率,确保SQL的高效执行和安全性,感... 目录动态SQL详解一、动态SQL的核心概念1.1 什么是动态SQL?1.2 动态SQL的优点1.3 动态S

Python如何使用__slots__实现节省内存和性能优化

《Python如何使用__slots__实现节省内存和性能优化》你有想过,一个小小的__slots__能让你的Python类内存消耗直接减半吗,没错,今天咱们要聊的就是这个让人眼前一亮的技巧,感兴趣的... 目录背景:内存吃得满满的类__slots__:你的内存管理小助手举个大概的例子:看看效果如何?1.

一文详解SpringBoot响应压缩功能的配置与优化

《一文详解SpringBoot响应压缩功能的配置与优化》SpringBoot的响应压缩功能基于智能协商机制,需同时满足很多条件,本文主要为大家详细介绍了SpringBoot响应压缩功能的配置与优化,需... 目录一、核心工作机制1.1 自动协商触发条件1.2 压缩处理流程二、配置方案详解2.1 基础YAML

SpringBoot实现MD5加盐算法的示例代码

《SpringBoot实现MD5加盐算法的示例代码》加盐算法是一种用于增强密码安全性的技术,本文主要介绍了SpringBoot实现MD5加盐算法的示例代码,文中通过示例代码介绍的非常详细,对大家的学习... 目录一、什么是加盐算法二、如何实现加盐算法2.1 加盐算法代码实现2.2 注册页面中进行密码加盐2.

Java时间轮调度算法的代码实现

《Java时间轮调度算法的代码实现》时间轮是一种高效的定时调度算法,主要用于管理延时任务或周期性任务,它通过一个环形数组(时间轮)和指针来实现,将大量定时任务分摊到固定的时间槽中,极大地降低了时间复杂... 目录1、简述2、时间轮的原理3. 时间轮的实现步骤3.1 定义时间槽3.2 定义时间轮3.3 使用时

MySQL中慢SQL优化的不同方式介绍

《MySQL中慢SQL优化的不同方式介绍》慢SQL的优化,主要从两个方面考虑,SQL语句本身的优化,以及数据库设计的优化,下面小编就来给大家介绍一下有哪些方式可以优化慢SQL吧... 目录避免不必要的列分页优化索引优化JOIN 的优化排序优化UNION 优化慢 SQL 的优化,主要从两个方面考虑,SQL 语

MySQL中慢SQL优化方法的完整指南

《MySQL中慢SQL优化方法的完整指南》当数据库响应时间超过500ms时,系统将面临三大灾难链式反应,所以本文将为大家介绍一下MySQL中慢SQL优化的常用方法,有需要的小伙伴可以了解下... 目录一、慢SQL的致命影响二、精准定位问题SQL1. 启用慢查询日志2. 诊断黄金三件套三、六大核心优化方案方案

Redis中高并发读写性能的深度解析与优化

《Redis中高并发读写性能的深度解析与优化》Redis作为一款高性能的内存数据库,广泛应用于缓存、消息队列、实时统计等场景,本文将深入探讨Redis的读写并发能力,感兴趣的小伙伴可以了解下... 目录引言一、Redis 并发能力概述1.1 Redis 的读写性能1.2 影响 Redis 并发能力的因素二、

使用国内镜像源优化pip install下载的方法步骤

《使用国内镜像源优化pipinstall下载的方法步骤》在Python开发中,pip是一个不可或缺的工具,用于安装和管理Python包,然而,由于默认的PyPI服务器位于国外,国内用户在安装依赖时可... 目录引言1. 为什么需要国内镜像源?2. 常用的国内镜像源3. 临时使用国内镜像源4. 永久配置国内镜