本文主要是介绍关于率失真训练方式的一些总结,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
关于率失真训练方式的一些总结
- R+lambda * D
- batch_size 和batch_step
- 优化器的选择
R+lambda * D
D的选取有很多选择,这里优化的是MSE,也可以是MSSSIM,也可以是l1范数,R也有交叉熵或者高斯分布计算的方法。单独优化MSE是可以提高MSSSIM的,反过来MSE无法降低
batch_size 和batch_step
batch_size要尽量的大,对应的step也要尽量的大,防止一个batch没有充分训练。epcho的step可以适当选择
优化器的选择
使用Adam优化,使用gradientdescent时候会出现不收敛的情况
这篇关于关于率失真训练方式的一些总结的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!