本文主要是介绍pytorch学习速率调整MultiStepLR,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)
milestones为一个数组,如 [50,70]. gamma为倍数。如果learning rate开始为0.01 ,则当epoch为50时变为0.001,epoch 为70 时变为0.0001。
当last_epoch=-1,设定为初始lr。
原文:https://blog.csdn.net/qq_41872630/article/details/86749972
这篇关于pytorch学习速率调整MultiStepLR的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!