各类优化方法总结(从SGD到FTRL)

2024-01-20 18:08

本文主要是介绍各类优化方法总结(从SGD到FTRL),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

  • 目录
  • 各类优化方法总结
    • 1. SGD
    • 2. Momentum
    • 3. Nesterov
    • 4. Adagrad
    • 5. Adadelta
    • 6. Adam
    • 7. FTRL
  • 参考资料


各类优化方法总结

为了方便描述,假设第 t t 轮要更新的某参数是wt loss l o s s 函数关于 wt w t 的偏导数表示为 gt g t ,即:

gt=Lwt g t = ∂ L ∂ w t

1. SGD

wt=wt1ηgt w t = w t − 1 − η ⋅ g t

可以对一个样本都计算一次梯度并更新一次参数,也可以先对一整个 batch b a t c h 一起计算梯度,再更新参数(称为batch-SGD)。

优点

  1. 简单

缺点

  1. 所有的参数使用同样的学习率 η η ,不够灵活
  2. 容易陷入局部最优
  3. 需要人工设定 η η

2. Momentum

mt=μmt1+gtwt=wt1ηmt m t = μ ⋅ m t − 1 + g t w t = w t − 1 − η ⋅ m t

实际上就是用加权累积的梯度代替本轮梯度,每次的更新方向并不是纯粹的梯度,而是要加上上一次迭代的一部分。可以将第 t t 轮的梯度看成下面这个式子,显然越早期的梯度贡献越小。
mt=i=1tμtigi

此外,将 Δwt Δ w t 展开得到 Δwt=ηmt=ημmtηgt Δ w t = − η ⋅ m t = − η ⋅ μ ⋅ m t − η ⋅ g t ,可以看到momentum不会直接改变当前梯度 gt g t

优点
momentum在前后梯度一致时有利于加速收敛,不一致时能做方向纠正,同时减少陷入局部最优。

  1. 在前后两次梯度方向比较接近时(一般是训练初期),前后两次在相近的方向上叠加,能够加速训练。
  2. 在前后两次梯度方向相差很远时(训练后期在局部最小附近来回震荡),虽然 gt g t 可能很小,但是有历史梯度的累积在, mt m t 不至于太小,有利于跳出局部最优。

缺点

  1. 仍然需要人工设定 η η

3. Nesterov

gt=f(wt1ημmt1) g t = ▽ f ( w t − 1 − η ⋅ μ ⋅ m t − 1 )

mt=μmt1+gtwt=wt1ηmt m t = μ ⋅ m t − 1 + g t w t = w t − 1 − η ⋅ m t

可以看到,Nesterov只是在Momentum的基础上,修改了当前梯度 gt g t ,让历史累积的梯度 mt1 m t − 1 也影响到当前的梯度 gt g t

缺点

  1. 仍然需要人工设定 η η

4. Adagrad

nt=nt1+g2twt=wt1ηnt+ϵgt n t = n t − 1 + g t 2 w t = w t − 1 − η n t + ϵ ⋅ g t

nt n t 其实是 tig2i ∑ i t g i 2 ,对于稀疏梯度,该平方和一般会比较小,使得参数的学习率偏大,对于非稀疏梯度,该平方和一般比较大,使得参数学习率偏小。因此Adagrad适合用来处理稀疏梯度。

优点

  1. 每个参数都有自己的学习率。
  2. 训练初期 gt g t 平方和比较小,学习率较大,能够加速训练
  3. 训练后期 gt g t 平方和比较大,学习率较小,能够约束梯度
  4. 适合处理稀疏梯度

缺点

  1. 仍然需要人工设定 η η
  2. 训练后期平方和太大,使得梯度 0 → 0 ,容易导致训练提前结束

5. Adadelta

E[g2]t=vE[g2]t1+(1v)g2t E [ g 2 ] t = v ⋅ E [ g 2 ] t − 1 + ( 1 − v ) ⋅ ⋅ g t 2

wt=wt1t1r=1(wrwr1)E[g2]t+ϵ w t = w t − 1 − ∑ r = 1 t − 1 ( w r − w r − 1 ) E [ g 2 ] t + ϵ

为了减轻Adagrad梯度衰减过快的问题,Adadelta用历史梯度平方的集权均值代替平方和。

优点

  1. 具有Adagrad的优点
  2. 不需要人工设定 η η
  3. 缓解了Adagrad梯度衰减过快的问题

6. Adam

mt=μmt1+(1μ)gtnt=vnt1+(1v)g2t m t = μ ⋅ m t − 1 + ( 1 − μ ) ⋅ g t n t = v ⋅ n t − 1 + ( 1 − v ) ⋅ g t 2

m̂ t=mt1μn̂ t=nt1v m ^ t = m t 1 − μ n ^ t = n t 1 − v

wt=wt1m̂ tn̂ t+ϵ w t = w t − 1 − m ^ t n ^ t + ϵ

mt m t nt n t 可以分别看作对历史梯度的一阶和二阶矩估计,即对期望 E[g]t E [ g ] t E[g2]t E [ g 2 ] t 的估计, m̂ t m ^ t n̂ t n ^ t 的处理是校正为无偏估计。

优点

  1. 实际上只需要保存梯度的均值,所以基本不需要额外的内存
  2. 不需要人工设定全局学习率 η η
  3. 有观点认为,RNN使用Adam速度快,效果好

7. FTRL

wt+1=argminw(g1:tw+12s=1tσs||wws||22+λ1||w||1) w t + 1 = arg ⁡ min w ( g 1 : t ⋅ w + 1 2 ∑ s = 1 t σ s | | w − w s | | 2 2 + λ 1 | | w | | 1 )

主要用于CTR预测的在线训练,成千上万维度导致大量稀疏特征。一般希望模型参数更加稀疏,但是简单的L1正则无法真正做到稀疏,一些梯度截断方法(TG)的提出就是为了解决这个问题,在这其中FTRL是兼备精度和稀疏性的在线学习方法。FTRL的基本思想是将接近于0的梯度直接置零,计算时直接跳过以减少计算量。

这里给出工程上的伪代码,里面的四个参数是可调的,具体原理尚且没时间看懂,以后有时间的话研究一下Google那篇论文。
这里写图片描述


参考资料

  1. 深度学习最全优化方法总结比较(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)- ycszen
  2. tensorflow optimizer 总结 - 跬步达千里
  3. Google FTRL论文 - Ad Click Prediction: a View from the Trenches
  4. 梯度下降优化算法综述
  5. 在线学习算法FTRL详解 - 一寒惊鸿
  6. 各大公司广泛使用的在线学习算法FTRL详解
  7. CTR预测算法之FTRL-Proximal

这篇关于各类优化方法总结(从SGD到FTRL)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/626864

相关文章

关于C++中的虚拟继承的一些总结(虚拟继承,覆盖,派生,隐藏)

1.为什么要引入虚拟继承 虚拟继承是多重继承中特有的概念。虚拟基类是为解决多重继承而出现的。如:类D继承自类B1、B2,而类B1、B2都继承自类A,因此在类D中两次出现类A中的变量和函数。为了节省内存空间,可以将B1、B2对A的继承定义为虚拟继承,而A就成了虚拟基类。实现的代码如下: class A class B1:public virtual A; class B2:pu

问题:第一次世界大战的起止时间是 #其他#学习方法#微信

问题:第一次世界大战的起止时间是 A.1913 ~1918 年 B.1913 ~1918 年 C.1914 ~1918 年 D.1914 ~1919 年 参考答案如图所示

[word] word设置上标快捷键 #学习方法#其他#媒体

word设置上标快捷键 办公中,少不了使用word,这个是大家必备的软件,今天给大家分享word设置上标快捷键,希望在办公中能帮到您! 1、添加上标 在录入一些公式,或者是化学产品时,需要添加上标内容,按下快捷键Ctrl+shift++就能将需要的内容设置为上标符号。 word设置上标快捷键的方法就是以上内容了,需要的小伙伴都可以试一试呢!

大学湖北中医药大学法医学试题及答案,分享几个实用搜题和学习工具 #微信#学习方法#职场发展

今天分享拥有拍照搜题、文字搜题、语音搜题、多重搜题等搜题模式,可以快速查找问题解析,加深对题目答案的理解。 1.快练题 这是一个网站 找题的网站海量题库,在线搜题,快速刷题~为您提供百万优质题库,直接搜索题库名称,支持多种刷题模式:顺序练习、语音听题、本地搜题、顺序阅读、模拟考试、组卷考试、赶快下载吧! 2.彩虹搜题 这是个老公众号了 支持手写输入,截图搜题,详细步骤,解题必备

uniapp接入微信小程序原生代码配置方案(优化版)

uniapp项目需要把微信小程序原生语法的功能代码嵌套过来,无需把原生代码转换为uniapp,可以配置拷贝的方式集成过来 1、拷贝代码包到src目录 2、vue.config.js中配置原生代码包直接拷贝到编译目录中 3、pages.json中配置分包目录,原生入口组件的路径 4、manifest.json中配置分包,使用原生组件 5、需要把原生代码包里的页面修改成组件的方

电脑不小心删除的文件怎么恢复?4个必备恢复方法!

“刚刚在对电脑里的某些垃圾文件进行清理时,我一不小心误删了比较重要的数据。这些误删的数据还有机会恢复吗?希望大家帮帮我,非常感谢!” 在这个数字化飞速发展的时代,电脑早已成为我们日常生活和工作中不可或缺的一部分。然而,就像生活中的小插曲一样,有时我们可能会在不经意间犯下一些小错误,比如不小心删除了重要的文件。 当那份文件消失在眼前,仿佛被时间吞噬,我们不禁会心生焦虑。但别担心,就像每个问题

十五.各设计模式总结与对比

1.各设计模式总结与对比 1.1.课程目标 1、 简要分析GoF 23种设计模式和设计原则,做整体认知。 2、 剖析Spirng的编程思想,启发思维,为之后深入学习Spring做铺垫。 3、 了解各设计模式之间的关联,解决设计模式混淆的问题。 1.2.内容定位 1、 掌握设计模式的"道" ,而不只是"术" 2、 道可道非常道,滴水石穿非一日之功,做好长期修炼的准备。 3、 不要为了

人工智能机器学习算法总结神经网络算法(前向及反向传播)

1.定义,意义和优缺点 定义: 神经网络算法是一种模仿人类大脑神经元之间连接方式的机器学习算法。通过多层神经元的组合和激活函数的非线性转换,神经网络能够学习数据的特征和模式,实现对复杂数据的建模和预测。(我们可以借助人类的神经元模型来更好的帮助我们理解该算法的本质,不过这里需要说明的是,虽然名字是神经网络,并且结构等等也是借鉴了神经网络,但其原型以及算法本质上还和生物层面的神经网络运行原理存在

Java注解详细总结

什么是注解?         Java注解是代码中的特殊标记,比如@Override、@Test等,作用是:让其他程序根据注解信息决定怎么执行该程序。         注解不光可以用在方法上,还可以用在类上、变量上、构造器上等位置。 自定义注解  现在我们自定义一个MyTest注解 public @interface MyTest{String aaa();boolean bbb()

邮件群发推送的方法技巧?有哪些注意事项?

邮件群发推送的策略如何实现?邮件推送怎么评估效果? 电子邮件营销是现代企业进行推广和沟通的重要工具。有效的邮件群发推送不仅能提高客户参与度,还能促进销售增长。AokSend将探讨一些关键的邮件群发推送方法和技巧,以帮助企业优化其邮件营销策略。 邮件群发推送:目标受众 了解他们的需求、兴趣和行为习惯有助于你设计出更具吸引力和相关性的邮件内容。通过收集和分析数据,创建详细的客户画像,可以更精