LSTM解决RNN梯度消失与梯度爆炸问题

2024-04-07 04:48

本文主要是介绍LSTM解决RNN梯度消失与梯度爆炸问题,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

RNN(Recurrent Neural Network)由于其递归的网络结构(如图1所示),对于处理序列建模任务具有独特的优势,因此在许多领域有着广泛的应用。如自然语言处理、语音识别等。

1.RNN的BPTT

图1 RNN网络结构
根据RNN的网络结构可写出其基本方程:
S t = δ ( W S t − 1 + U X t ) ( 1 ) O t = δ ( V S t ) ( 2 ) S_{t} = \delta(WS_{t-1} + UX_{t}) \ \ \ \ \ \ \ (1) \\ O_{t} = \delta(VS_{t}) \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (2) St=δ(WSt1+UXt)       (1)Ot=δ(VSt)                       (2)
假设交叉熵为其损失函数loss:
L = − ∑ t = 1 n O t l o g O t ^ ( 3 ) L=-\sum_{t=1}^{n}O_{t}log\hat{O_{t}} \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (3) L=t=1nOtlogOt^                     (3)
然后分别对W、U、V求偏导
先求V的偏导,因其偏导较为简单
∂ L ∂ V = ∂ L ∂ O t ⋅ ∂ O t ∂ V ( 4 ) \frac{\partial L}{\partial V}=\frac{\partial L}{\partial O_{t}}\cdot \frac{\partial O_{t}}{\partial V} \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (4) VL=OtLVOt                (4)
再对W和U求偏导
由公式(1)可知,当前时刻的状态不仅与当前的输入有关,而且还与与前一时刻的状态有关。
对W和U运用链式求导
∂ L ∂ W = ∂ L ∂ O t ⋅ ∂ O t ∂ S t ⋅ ∂ S t ∂ S t − 1 ⋅ ∂ S t − 1 ∂ S t − 2 ⋅ . . . ⋅ ⋅ ∂ S 1 ∂ S 0 ⋅ ∂ S 0 ∂ W = ∂ L ∂ O t ⋅ ∂ O t ∂ S t ⋅ ∏ k = 1 t ∂ S k ∂ S k − 1 ⋅ ∂ S k − 1 ∂ W ( 5 ) \begin{aligned} \frac{\partial L}{\partial W}&=\frac{\partial L}{\partial O_{t}}\cdot \frac{\partial O_{t}}{\partial S_{t}}\cdot \frac{\partial S_{t}}{\partial S_{t-1}}\cdot \frac{\partial S_{t-1}}{\partial S_{t-2}}\cdot...\cdot \cdot \frac{\partial S_{1}}{\partial S_{0}}\cdot \frac{\partial S_{0}}{\partial W}\\ &=\frac{\partial L}{\partial O_{t}}\cdot \frac{\partial O_{t}}{\partial S_{t}}\cdot \prod_{k=1}^{t} \frac{\partial S_{k}}{\partial S_{k-1}}\cdot \frac{\partial S_{k-1}}{\partial W}\ \ \ \ \ (5) \end{aligned} WL=OtLStOtSt1StSt2St1...S0S1WS0=OtLStOtk=1tSk1SkWSk1     (5)
同理可得
∂ L ∂ U = ∂ L ∂ O t ⋅ ∂ O t ∂ S t ⋅ ∂ S t ∂ S t − 1 ⋅ ∂ S t − 1 ∂ S t − 2 ⋅ . . . ⋅ ⋅ ∂ S 1 ∂ S 0 ⋅ ∂ S 0 ∂ U = ∂ L ∂ O t ⋅ ∂ O t ∂ S t ⋅ ∏ k = 1 t ∂ S k ∂ S k − 1 ⋅ ∂ S k − 1 ∂ U ( 6 ) \begin{aligned} \frac{\partial L}{\partial U}&=\frac{\partial L}{\partial O_{t}}\cdot \frac{\partial O_{t}}{\partial S_{t}}\cdot \frac{\partial S_{t}}{\partial S_{t-1}}\cdot \frac{\partial S_{t-1}}{\partial S_{t-2}}\cdot...\cdot \cdot \frac{\partial S_{1}}{\partial S_{0}}\cdot \frac{\partial S_{0}}{\partial U}\\ &=\frac{\partial L}{\partial O_{t}}\cdot \frac{\partial O_{t}}{\partial S_{t}}\cdot \prod_{k=1}^{t} \frac{\partial S_{k}}{\partial S_{k-1}}\cdot \frac{\partial S_{k-1}}{\partial U}\ \ \ \ \ (6) \end{aligned} UL=OtLStOtSt1StSt2St1...S0S1US0=OtLStOtk=1tSk1SkUSk1     (6)

2.RNN梯度消失与梯度爆炸

由公式(1)可知
∂ S t ∂ S t − 1 = W ⋅ σ ′ ( 7 ) \frac{\partial S_{t}}{\partial S_{t-1}}=W\cdot {\sigma }'\ \ \ \ \ (7) St1St=Wσ     (7)
sigmod函数
图2 sigmod函数
当公式(7)的乘积小于1时,公式(5)和公式(6)就会趋近于0,也即梯度消失;
当公式(7)的乘积大于1时,公式(5)和公式(6)就会趋近于无穷大,也即梯度爆炸;

3.LSTM解决RNN梯度问题

在这里插入图片描述
PS:图片来源于http://colah.github.io/posts/2015-08-Understanding-LSTMs/ 下面公式中的标号参考该链接中图片标号。
i t = σ ( W i [ h t − 1 ; x t ] + b i ) ( 8 ) f t = σ ( W f [ h t − 1 ; x t ] + b f ) ( 9 ) C ~ t = t a n h ( W c [ h t − 1 ; x t ] + b c ) ( 10 ) C t = i t ∗ C ~ t + f t ∗ C t − 1 ( 11 ) o t = σ ( W o [ h t − 1 ; x t ] + b o ) ( 12 ) h t = o t ∗ t a n h ( C t ) ( 13 ) \begin{aligned} i_{t}&=\sigma (W_{i}[h_{t-1}; x_{t}]+b_{i}) \ \ \ \ \ \ \ (8) \\ f_{t}&=\sigma (W_{f}[h_{t-1}; x_{t}]+b_{f}) \ \ \ \ \ \ (9) \\ \tilde{C}_{t}&=tanh (W_{c}[h_{t-1}; x_{t}]+b_{c}) \ \ (10) \\ C_{t}&=i_{t}*\tilde{C}_{t}+f_{t}*C_{t-1} \ \ \ \ \ \ \ \ (11) \\ o_{t}&=\sigma (W_{o}[h_{t-1}; x_{t}]+b_{o}) \ \ \ \ \ \ (12) \\ h_{t}&=o_{t}*tanh(C_{t}) \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ (13) \\ \end{aligned} itftC~tCtotht=σ(Wi[ht1;xt]+bi)       (8)=σ(Wf[ht1;xt]+bf)      (9)=tanh(Wc[ht1;xt]+bc)  (10)=itC~t+ftCt1        (11)=σ(Wo[ht1;xt]+bo)      (12)=ottanh(Ct)                 (13)
类比RNN中偏导的连乘部分,LSTM中连乘部分为
∂ C t ∂ C t − 1 = f t = σ ( 14 ) \frac{\partial C_{t}}{\partial C_{t-1}}=f_{t}=\sigma \ \ \ \ \ \ \ \ \ (14) Ct1Ct=ft=σ         (14)
对比公式(7)和公式(14),LSTM的连乘部分变成了σ,在实际参数更新过程中,通过控制其值接近于1,则经过多次连乘(训练)后,梯度也不会消失;而σ的值不会大于1,故不会出现梯度爆炸。

这篇关于LSTM解决RNN梯度消失与梯度爆炸问题的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/881668

相关文章

Redis出现中文乱码的问题及解决

《Redis出现中文乱码的问题及解决》:本文主要介绍Redis出现中文乱码的问题及解决,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1. 问题的产生2China编程. 问题的解决redihttp://www.chinasem.cns数据进制问题的解决中文乱码问题解决总结

全面解析MySQL索引长度限制问题与解决方案

《全面解析MySQL索引长度限制问题与解决方案》MySQL对索引长度设限是为了保持高效的数据检索性能,这个限制不是MySQL的缺陷,而是数据库设计中的权衡结果,下面我们就来看看如何解决这一问题吧... 目录引言:为什么会有索引键长度问题?一、问题根源深度解析mysql索引长度限制原理实际场景示例二、五大解决

Springboot如何正确使用AOP问题

《Springboot如何正确使用AOP问题》:本文主要介绍Springboot如何正确使用AOP问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录​一、AOP概念二、切点表达式​execution表达式案例三、AOP通知四、springboot中使用AOP导出

Python中Tensorflow无法调用GPU问题的解决方法

《Python中Tensorflow无法调用GPU问题的解决方法》文章详解如何解决TensorFlow在Windows无法识别GPU的问题,需降级至2.10版本,安装匹配CUDA11.2和cuDNN... 当用以下代码查看GPU数量时,gpuspython返回的是一个空列表,说明tensorflow没有找到

解决未解析的依赖项:‘net.sf.json-lib:json-lib:jar:2.4‘问题

《解决未解析的依赖项:‘net.sf.json-lib:json-lib:jar:2.4‘问题》:本文主要介绍解决未解析的依赖项:‘net.sf.json-lib:json-lib:jar:2.4... 目录未解析的依赖项:‘net.sf.json-lib:json-lib:jar:2.4‘打开pom.XM

XML重复查询一条Sql语句的解决方法

《XML重复查询一条Sql语句的解决方法》文章分析了XML重复查询与日志失效问题,指出因DTO缺少@Data注解导致日志无法格式化、空指针风险及参数穿透,进而引发性能灾难,解决方案为在Controll... 目录一、核心问题:从SQL重复执行到日志失效二、根因剖析:DTO断裂引发的级联故障三、解决方案:修复

IDEA Maven提示:未解析的依赖项的问题及解决

《IDEAMaven提示:未解析的依赖项的问题及解决》:本文主要介绍IDEAMaven提示:未解析的依赖项的问题及解决,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝... 目录IDEA Maven提示:未解析的依编程赖项例如总结IDEA Maven提示:未解析的依赖项例如

Redis分片集群、数据读写规则问题小结

《Redis分片集群、数据读写规则问题小结》本文介绍了Redis分片集群的原理,通过数据分片和哈希槽机制解决单机内存限制与写瓶颈问题,实现分布式存储和高并发处理,但存在通信开销大、维护复杂及对事务支持... 目录一、分片集群解android决的问题二、分片集群图解 分片集群特征如何解决的上述问题?(与哨兵模

SpringBoot+Redis防止接口重复提交问题

《SpringBoot+Redis防止接口重复提交问题》:本文主要介绍SpringBoot+Redis防止接口重复提交问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不... 目录前言实现思路代码示例测试总结前言在项目的使用使用过程中,经常会出现某些操作在短时间内频繁提交。例

解决Entity Framework中自增主键的问题

《解决EntityFramework中自增主键的问题》:本文主要介绍解决EntityFramework中自增主键的问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝... 目录Entity Framework中自增主键问题解决办法1解决办法2解决办法3总结Entity Fram