本文主要是介绍深度学习基础2(反向传播算法),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
反向传播算法
- 前向传播
对于节点来说,
的净输入
如下:
![]()
接着对做一个sigmoid函数得到节点
的输出:
![]()
类似的,我们能得到节点、
、
的输出
、
、
。
- 误差
得到结果后,整个神经网络的输出误差可以表示为:
![]()
其中就是刚刚通过前向传播算出来的
、
;
是节点
、
的目标值。
用来衡量二者的误差。
这个也可以认为是cost function,不过这里省略了防止overfit的regularization term(
)
展开得到
![]()
- 后向传播
通过梯度下降调整,需要求
,由链式法则:
,
如下图所示:
<img src="https://pic4.zhimg.com/50/f2d8768af0d9264687905a0134dae927_hd.png" data-rawwidth="525" data-rawheight="257" class="origin_image zh-lightbox-thumb" width="525" data-original="https://pic4.zhimg.com/f2d8768af0d9264687905a0134dae927_r.png">![]()
![]()
![]()
![]()
以上3个相乘得到梯度,之后就可以用这个梯度训练了:
![]()
很多教材比如Stanford的课程,会把中间结果记做
,表示这个节点对最终的误差需要负多少责任。。所以有
。
对隐藏层的
通过梯度下降调整,需要求
,由链式法则:
,
如下图所示:
<img src="https://pic3.zhimg.com/50/d50d1d812f0f036b8c5cb389e463b01a_hd.png" data-rawwidth="612" data-rawheight="494" class="origin_image zh-lightbox-thumb" width="612" data-original="https://pic3.zhimg.com/d50d1d812f0f036b8c5cb389e463b01a_r.png">参数参数
影响了
,进而影响了
,之后又影响到
、
。
求解每个部分:
,
其中,这里
之前计算过。
的计算也类似,所以得到
。
的链式中其他两项如下:
,
![]()
相乘得到
![]()
得到梯度后,就可以对迭代了:
。
在前一个式子里同样可以对进行定义,
,所以整个梯度可以写成
![]()
=======================
上述
<img src="https://pic3.zhimg.com/50/2d29c11b1c9da7652c63f01d5e31284e_hd.jpg" data-rawwidth="822" data-rawheight="428" class="origin_image zh-lightbox-thumb" width="822" data-original="https://pic3.zhimg.com/2d29c11b1c9da7652c63f01d5e31284e_r.jpg">
![](https://pic3.zhimg.com/50/2d29c11b1c9da7652c63f01d5e31284e_hd.jpg)
所谓的后向传播,其实就是『将来在宣传传播上出了偏差,你们要负责的!』,每一个节点负责的量用表示,那么,隐藏节点需要负责的量,就由输出节点负责的量一层层往前传导。
【1】 A Step by Step Backpropagation Example
【2】 Unsupervised Feature Learning and Deep Learning Tutorial
假设我们有一个固定样本集 ,它包含
个样例。我们可以用批量梯度下降法来求解神经网络。具体来讲,对于单个样例
,其代价函数为:
这是一个(二分之一的)方差代价函数。给定一个包含 个样例的数据集,我们可以定义整体代价函数为:
以上公式中的第一项 是一个均方差项。第二项是一个规则化项(也叫权重衰减项),其目的是减小权重的幅度,防止过度拟合。
[注:通常权重衰减的计算并不使用偏置项 ,比如我们在
的定义中就没有使用。一般来说,将偏置项包含在权重衰减项中只会对最终的神经网络产生很小的影响。如果你在斯坦福选修过CS229(机器学习)课程,或者在YouTube上看过课程视频,你会发现这个权重衰减实际上是课上提到的贝叶斯规则化方法的变种。在贝叶斯规则化方法中,我们将高斯先验概率引入到参数中计算MAP(极大后验)估计(而不是极大似然估计)。]
权重衰减参数 用于控制公式中两项的相对重要性。在此重申一下这两个复杂函数的含义:
是针对单个样例计算得到的方差代价函数;
是整体样本代价函数,它包含权重衰减项。
以上的代价函数经常被用于分类和回归问题。在分类问题中,我们用 或
,来代表两种类型的标签(回想一下,这是因为 sigmoid激活函数的值域为
;如果我们使用双曲正切型激活函数,那么应该选用
和
作为标签)。对于回归问题,我们首先要变换输出值域(译者注:也就是
),以保证其范围为
(同样地,如果我们使用双曲正切型激活函数,要使输出值域为
)。
我们的目标是针对参数 和
来求其函数
的最小值。为了求解神经网络,我们需要将每一个参数
和
初始化为一个很小的、接近零的随机值(比如说,使用正态分布
生成的随机值,其中
设置为
),之后对目标函数使用诸如批量梯度下降法的最优化算法。因为
是一个非凸函数,梯度下降法很可能会收敛到局部最优解;但是在实际应用中,梯度下降法通常能得到令人满意的结果。最后,需要再次强调的是,要将参数进行随机初始化,而不是全部置为
。如果所有参数都用相同的值作为初始值,那么所有隐藏层单元最终会得到与输入值有关的、相同的函数(也就是说,对于所有
,
都会取相同的值,那么对于任何输入
都会有:
)。随机初始化的目的是使对称失效。
梯度下降法中每一次迭代都按照如下公式对参数 和
进行更新:
其中 是学习速率。其中关键步骤是计算偏导数。我们现在来讲一下反向传播算法,它是计算偏导数的一种有效方法。
我们首先来讲一下如何使用反向传播算法来计算 和
,这两项是单个样例
的代价函数
的偏导数。一旦我们求出该偏导数,就可以推导出整体代价函数
的偏导数:
以上两行公式稍有不同,第一行比第二行多出一项,是因为权重衰减是作用于 而不是
。
反向传播算法的思路如下:给定一个样例 ,我们首先进行“前向传导”运算,计算出网络中所有的激活值,包括
的输出值。之后,针对第
层的每一个节点
,我们计算出其“残差”
,该残差表明了该节点对最终输出值的残差产生了多少影响。对于最终的输出节点,我们可以直接算出网络产生的激活值与实际值之间的差距,我们将这个差距定义为
(第
层表示输出层)。对于隐藏单元我们如何处理呢?我们将基于节点(译者注:第
层节点)残差的加权平均值计算
,这些节点以
作为输入。
具体BP算法的数学推导请参照机器学习《BP算法详谈》。
中英文对照
- 反向传播算法 Backpropagation Algorithm
- (批量)梯度下降法 (batch) gradient descent
- (整体)代价函数 (overall) cost function
- 方差 squared-error
- 均方差 average sum-of-squares error
- 规则化项 regularization term
- 权重衰减 weight decay
- 偏置项 bias terms
- 贝叶斯规则化方法 Bayesian regularization method
- 高斯先验概率 Gaussian prior
- 极大后验估计 MAP
- 极大似然估计 maximum likelihood estimation
- 激活函数 activation function
- 双曲正切函数 tanh function
- 非凸函数 non-convex function
- 隐藏层单元 hidden (layer) units
- 对称失效 symmetry breaking
- 学习速率 learning rate
- 前向传导 forward pass
- 假设值 hypothesis
- 残差 error term
- 加权平均值 weighted average
- 前馈传导 feedforward pass
- 阿达马乘积 Hadamard product
- 前向传播 forward propagation
这篇关于深度学习基础2(反向传播算法)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!