本文主要是介绍[deeplearning-001] stotisticks gradient descent随机梯度下降算法的最简单例子解释,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
1.gradient descent梯度下降优化
1.1假设要优化一个函数 f(x)=(x−1)2 求它的最小值。这个函数在 x=1 时有最小值,这是解析解。如果用梯度下降法,是这样的:
f′(x)=2(x−1)
每一步的迭代公式是:
xi+1=xi−ηf′(xi) (为什么是减号?因为是求最小值,如果是求最大值,就是加号)
如果 ∣xi+1−xi∣<0.1 则精度足够,终止计算。
1.2 初始值 x0=5 , η=0.8 (初始值可以随便设,但 η 需要经验性地选择一下,步长太大可能会引起不收敛,步长太小会慢,更复杂一点可以搞个自适应的计算方式以调优)
1.3 第1步:
x1=x0−ηf′(x
这篇关于[deeplearning-001] stotisticks gradient descent随机梯度下降算法的最简单例子解释的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!