本文主要是介绍caffe 参数solver_param分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
这是ssd_pascal.py中的一段代码,因为在读ssd的代码,所以贴的这一段,一般别的solver param也差不多......
solver_param = {
# Train parameters
//base_lr:网络的基础学习速率,一般设一个很小的值,然后根据迭代到不同次数,对学习速率做相应的变化.lr过大不会收敛,过小收敛过慢
'base_lr': base_lr,
//weight_decay:权衰量,用于防止过拟合
'weight_decay': 0.0005,
//lr_policy:学习速率的衰减策略,详细见后面
'lr_policy': "step",
//stepsize:每40000次迭代减少学习率(这一项和lr_policy有关)
'stepsize': 40000,
//学习率变化的比率(这一项和lr_policy有关)
'gamma': 0.1,
//momentum:网络的冲量;学习的参数,不用变;上一次梯度更新的权重(找到的三个不一样的说法...)
'momentum': 0.9,
//iter_size:iter_size*batch size=实际使用的batch size。 相当于读取batchsize*itersize个图像才做一下gradient decent。 这个参数可以规避由于gpu不足而导致的batchsize的限制 因为你可以用多个iteration做到很大的batch 即使单次batch有限
'iter_size': iter_size,
//max_iter:最大迭代次数,告诉网络何时停止训练.太小达不到收敛,太大会导致震荡
'max_iter': 60000,
//snapshot:每40000次迭代打印一次快照(就是把当前数据保存下来,方便下次重用,如果电源不稳定容易意外关机建议这个值设小一点...对,就是我...)
'snapshot': 40000,
//display:每经过10次迭代,在屏幕上打印一次运行log(告诉你当前的loss之类的...)
'display': 10,
//取多次foward的loss作平均,进行显示输出
'average_loss': 10,
//type:选择一种优化算法,具体有哪些见后面
'type': "SGD",
//选择CPU or GPU
'solver_mode': solver_mode,
//device_id:选择几块GPU
'device_id': device_id,
//用于调试的?暂时不确定...以后补上
'debug_info': False,
//snapshot_after_train:true表示在训练完后把最后一次的训练结果保存下来
'snapshot_after_train': True,# Test parameters
//test_iter:每次预测的迭代次数.一般test_iter*batch_size=所有test样本数,这样一次预测就可以覆盖所有test样本
'test_iter': [test_iter],
//test_interval:训练时每迭代10000次进行一次预测
'test_interval': 10000,
//
'eval_type': "detection",
//
'ap_version': "11point",
//test_initialization:false表示可以用上次保存的snapshot来继续训练
'test_initialization': False,}
lr_policy
这个参数代表的是learning rate应该遵守什么样的变化规则,这个参数对应的是字符串,选项及说明如下:
- “step” - 需要设置一个stepsize参数,返回base_lr * gamma ^ ( floor ( iter / stepsize ) ),iter为当前迭代次数
- “multistep” - 和step相近,但是需要stepvalue参数,step是均匀等间隔变化,而multistep是根据stepvalue的值进行变化
- “fixed” - 保持base_lr不变
- “exp” - 返回base_lr * gamma ^ iter, iter为当前迭代次数
- “poly” - 学习率进行多项式误差衰减,返回 base_lr ( 1 - iter / max_iter ) ^ ( power )
- “sigmoid” - 学习率进行sigmod函数衰减,返回 base_lr ( 1/ 1+exp ( -gamma * ( iter - stepsize ) ) )
type
到目前的版本,caffe提供了六种优化算法来求解最优参数,在solver配置文件中,通过设置type类型来选择。
- Stochastic Gradient Descent (
type: "SGD"
), - AdaDelta (
type: "AdaDelta"
), - Adaptive Gradient (
type: "AdaGrad"
), - Adam (
type: "Adam"
), - Nesterov’s Accelerated Gradient (
type: "Nesterov"
) and - RMSprop (
type: "RMSProp"
)
这篇关于caffe 参数solver_param分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!