本文主要是介绍李宏毅 Normalization,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
对L影响很小。假设 input很小, 对L影响很小
Feature normalization,对所有输入进行 normalization
可以在 activication 之前或者之后做 normalization, sigmoid函数最好是在activiation之前做
gama 初始 为1, beta 初始为0
加BN时候 error surface 就会比较平滑,比较不崎岖, learning rate 可以设置比较大
这篇关于李宏毅 Normalization的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!