本文主要是介绍[deeplearning-004] 一般形式的反向传导算法BP最简推导-2,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
3.2 梯度下降
训练神经网络,就是让 J(W,b) 的值最小。解法就是梯度下降,或者随机梯度下降。
梯度下降法的迭代公式是:
其中, s 是迭代次数,
上两式的一阶偏导又可以写成:
3.2.1 输出层 Lp 和隐层 Lp−1 之间的权重矩阵 Wp−1 一阶偏导求解并推广到一般情形
我们可以把神经网络视为一个复杂一点的函数,自变量 x 经过一系列函数的操作,输出因变量 y , y 是由 W 和 b 决定的,优化输出结果,需要调整 W 和 b 。
这里,先推导一个具体的权重,也就是最后一个隐层的第二个神经元跟输出层的第一个神经元之间的权重,然后再扩展到一般形式:
这篇关于[deeplearning-004] 一般形式的反向传导算法BP最简推导-2的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!