openpcdet中的优化器

2024-02-05 13:28
文章标签 优化 openpcdet

本文主要是介绍openpcdet中的优化器,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

OPTIMIZATION

优化器用于对梯度、学习率等进行调整
下面是一个优化器的配置:

OPTIMIZATION:BATCH_SIZE_PER_GPU: 4NUM_EPOCHS: 10OPTIMIZER: adam_onecycleLR: 0.001WEIGHT_DECAY: 0.04MOMENTUM: 0.8MOMS: [0.85, 0.75]PCT_START: 0.1DIV_FACTOR: 100DECAY_STEP_LIST: [35, 45]LR_DECAY: 0.1LR_CLIP: 0.0000001LR_WARMUP: FalseWARMUP_EPOCH: 1GRAD_NORM_CLIP: 10LOSS_SCALE_FP16: 32.0

下面来看每个配置的具体作用和含义:
按照配置的功能,可以分为以下几组:

  • 首先是batch_sizeepoch

    BATCH_SIZE_PER_GPU: 4 # 表示每个GPU上一次迭代的batch size 是4
    NUM_EPOCHS: 10 # 表示一共训练10个epoch

  • 然后是Optimizer(优化器)

    OPTIMIZER: adam_onecycle # 表示使用的优化器是adam_onecycle
    LR: 0.001 # 表示初始学习率是0.001
    WEIGHT_DECAY: 0.04 # 表示权重衰减系数是 0.04
    MOMENTUM: 0.8 # 表示MOMENTUM是0.8, SGD算法需要,其他不需要

  • 然后是Scheduler(学习率调度器)

参考:https://blog.csdn.net/ChuiGeDaQiQiu/article/details/121462371
MOMS: [0.95, 0.85]
PCT_START: 0.1
DIV_FACTOR: 100
DECAY_STEP_LIST: [35, 45]
LR_DECAY: 0.1
LR_CLIP: 0.0000001
LR_WARMUP: False
WARMUP_EPOCH: 1

  • 梯度裁剪clip_grad_norm_

GRAD_NORM_CLIP: 10
LOSS_SCALE_FP16: 32.0

下面对各个功能组件进行具体分析:
batch_size 和 epoch数比较简单,没啥好说的

下面来看Optimizer(优化器)

怎么构造

Optimizer在train.py中通过
build_optimizer(model, optim_cfg, filter_frozen_params=False) 函数进行构造

def build_optimizer(model, optim_cfg, filter_frozen_params=False):if optim_cfg.OPTIMIZER == 'adam':optimizer = optim.Adam(model.parameters(), lr=optim_cfg.LR, weight_decay=optim_cfg.WEIGHT_DECAY)elif optim_cfg.OPTIMIZER == 'sgd':optimizer = optim.SGD(model.parameters(), lr=optim_cfg.LR, weight_decay=optim_cfg.WEIGHT_DECAY,momentum=optim_cfg.MOMENTUM)elif optim_cfg.OPTIMIZER in ['adam_onecycle','adam_cosineanneal']:def children(m: nn.Module):return list(m.children())def num_children(m: nn.Module) -> int:return len(children(m))flatten_model = lambda m: sum(map(flatten_model, m.children()), []) if num_children(m) else [m]get_layer_groups = lambda m: [nn.Sequential(*flatten_model(m))]betas = optim_cfg.get('BETAS', (0.9, 0.99))betas = tuple(betas)optimizer_func = partial(optim.Adam, betas=betas)optimizer = OptimWrapper.create(optimizer_func, 3e-3, get_layer_groups(model), wd=optim_cfg.WEIGHT_DECAY, true_wd=True, bn_wd=True)else:raise NotImplementedErrorreturn optimizer

不同的Optimizer有不同的构造方法,openpcdet中提供了adam、sgd、adam_onecycle、adam_cosineanneal这几种Optimizer,这里不对Optimizer做具体解释,放在另外一个文档中进行具体分析

怎么使用

优化器的使用涉及到两方面:
一是使用优化器进行梯度更新
二是构造学习率调整器,由学习率调整器对优化器进行更新

首先来看使用优化器进行梯度更新
def train_one_epoch(..., optimizer, ...):... 忽略一堆代码# 混合精度训练的缩放操作scaler = torch.cuda.amp.GradScaler(enabled=use_amp, init_scale=optim_cfg.get('LOSS_SCALE_FP16', 2.0 ** 16))... 忽略一堆代码lr_scheduler.step(accumulated_iter, cur_epoch)  # 学习率调整try:cur_lr = float(optimizer.lr)    # 读取当前的学习率,用于日志显示except:cur_lr = optimizer.param_groups[0]['lr']if tb_log is not None:tb_log.add_scalar('meta_data/learning_rate', cur_lr, accumulated_iter)model.train()optimizer.zero_grad()      # 梯度清零with torch.cuda.amp.autocast(enabled=use_amp):loss, tb_dict, disp_dict = model_func(model, batch)scaler.scale(loss).backward()  # 如果不用混合精度训练,直接loss.backward()就行,进行方向传播计算scaler.unscale_(optimizer)     # 将优化器中的梯度反向缩放回原始的 FP32 精度clip_grad_norm_(model.parameters(), optim_cfg.GRAD_NORM_CLIP)   # 梯度裁剪,用于限制梯度的范数,防止梯度爆炸的情况发生scaler.step(optimizer)  # 使用优化器来更新模型的参数。由于之前已经对梯度进行了缩放处理,因此这里直接调用 step() 方法来执行参数更新scaler.update() # 用于更新 AMP 的内部状态,以便在下一次迭代中使用正确的缩放因子... 忽略一堆代码
然后看构造学习率调整器

将上面构造好的optimizer作为参数传入 build_scheduler() 函数,用于构造学习率调整器
然后构造好的学习率调整器在每次迭代调用lr_scheduler.step(accumulated_iter, cur_epoch) 进行学习率调整

下面来看Scheduler(学习率调度器)

怎么构造

在build_scheduler() 函数中进行构造:

def build_scheduler(optimizer, total_iters_each_epoch, total_epochs, last_epoch, optim_cfg):decay_steps = [x * total_iters_each_epoch for x in optim_cfg.DECAY_STEP_LIST]def lr_lbmd(cur_epoch):cur_decay = 1for decay_step in decay_steps:if cur_epoch >= decay_step:cur_decay = cur_decay * optim_cfg.LR_DECAYreturn max(cur_decay, optim_cfg.LR_CLIP / optim_cfg.LR)lr_warmup_scheduler = Nonetotal_steps = total_iters_each_epoch * total_epochsif optim_cfg.OPTIMIZER == 'adam_onecycle':lr_scheduler = OneCycle(optimizer, total_steps, optim_cfg.LR, list(optim_cfg.MOMS), optim_cfg.DIV_FACTOR, optim_cfg.PCT_START)elif optim_cfg.OPTIMIZER == 'adam_cosineanneal':lr_scheduler = CosineAnnealing(optimizer, total_steps, total_epochs, optim_cfg.LR, list(optim_cfg.MOMS), optim_cfg.PCT_START, optim_cfg.WARMUP_ITER)else:lr_scheduler = lr_sched.LambdaLR(optimizer, lr_lbmd, last_epoch=last_epoch)if optim_cfg.LR_WARMUP:lr_warmup_scheduler = CosineWarmupLR(optimizer, T_max=optim_cfg.WARMUP_EPOCH * len(total_iters_each_epoch),eta_min=optim_cfg.LR / optim_cfg.DIV_FACTOR)return lr_scheduler, lr_warmup_scheduler

最后返回 lr_scheduler, lr_warmup_scheduler , 分别是学习率调度器和学习率warmup调度器(LR_WARMUP=True时)

怎么使用

学习率调度器用法很简单:
只要在每次迭代中传入当前的迭代次数和当前的epoch数,调用step函数就可以更新学习率了
lr_scheduler.step(accumulated_iter, cur_epoch)

下面来看梯度裁剪

梯度裁剪使用比较简单:
调用函数就可以:
clip_grad_norm_(model.parameters(), optim_cfg.GRAD_NORM_CLIP)

这篇关于openpcdet中的优化器的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/681054

相关文章

Vue3 的 shallowRef 和 shallowReactive:优化性能

大家对 Vue3 的 ref 和 reactive 都很熟悉,那么对 shallowRef 和 shallowReactive 是否了解呢? 在编程和数据结构中,“shallow”(浅层)通常指对数据结构的最外层进行操作,而不递归地处理其内部或嵌套的数据。这种处理方式关注的是数据结构的第一层属性或元素,而忽略更深层次的嵌套内容。 1. 浅层与深层的对比 1.1 浅层(Shallow) 定义

HDFS—存储优化(纠删码)

纠删码原理 HDFS 默认情况下,一个文件有3个副本,这样提高了数据的可靠性,但也带来了2倍的冗余开销。 Hadoop3.x 引入了纠删码,采用计算的方式,可以节省约50%左右的存储空间。 此种方式节约了空间,但是会增加 cpu 的计算。 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件,都会执行此策略。 默认只开启对 RS-6-3-1024k

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

MySQL高性能优化规范

前言:      笔者最近上班途中突然想丰富下自己的数据库优化技能。于是在查阅了多篇文章后,总结出了这篇! 数据库命令规范 所有数据库对象名称必须使用小写字母并用下划线分割 所有数据库对象名称禁止使用mysql保留关键字(如果表名中包含关键字查询时,需要将其用单引号括起来) 数据库对象的命名要能做到见名识意,并且最后不要超过32个字符 临时库表必须以tmp_为前缀并以日期为后缀,备份

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者

从状态管理到性能优化:全面解析 Android Compose

文章目录 引言一、Android Compose基本概念1.1 什么是Android Compose?1.2 Compose的优势1.3 如何在项目中使用Compose 二、Compose中的状态管理2.1 状态管理的重要性2.2 Compose中的状态和数据流2.3 使用State和MutableState处理状态2.4 通过ViewModel进行状态管理 三、Compose中的列表和滚动

构建高性能WEB之HTTP首部优化

0x00 前言 在讨论浏览器优化之前,首先我们先分析下从客户端发起一个HTTP请求到用户接收到响应之间,都发生了什么?知己知彼,才能百战不殆。这也是作为一个WEB开发者,为什么一定要深入学习TCP/IP等网络知识。 0x01 到底发生什么了? 当用户发起一个HTTP请求时,首先客户端将与服务端之间建立TCP连接,成功建立连接后,服务端将对请求进行处理,并对客户端做出响应,响应内容一般包括响应

DAY16:什么是慢查询,导致的原因,优化方法 | undo log、redo log、binlog的用处 | MySQL有哪些锁

目录 什么是慢查询,导致的原因,优化方法 undo log、redo log、binlog的用处  MySQL有哪些锁   什么是慢查询,导致的原因,优化方法 数据库查询的执行时间超过指定的超时时间时,就被称为慢查询。 导致的原因: 查询语句比较复杂:查询涉及多个表,包含复杂的连接和子查询,可能导致执行时间较长。查询数据量大:当查询的数据量庞大时,即使查询本身并不复杂,也可能导致

MySQL 数据优化

MySQL 数据优化的指南 MySQL 数据库优化是一个复杂且重要的过程,它直接影响到系统的性能、可靠性和可扩展性。在处理大量数据或高并发请求时,数据库的优化尤为关键。通过合理的数据库设计、索引使用、查询优化和硬件调优,可以大幅提高 MySQL 的运行效率。本文将从几个主要方面详细介绍 MySQL 的优化技巧,帮助你在实际应用中提升数据库性能。 一、数据库设计优化 1. 数据库的规范化与反规

C++编程:ZeroMQ进程间(订阅-发布)通信配置优化

文章目录 0. 概述1. 发布者同步发送(pub)与订阅者异步接收(sub)示例代码可能的副作用: 2. 适度增加缓存和队列示例代码副作用: 3. 动态的IPC通道管理示例代码副作用: 4. 接收消息的超时设置示例代码副作用: 5. 增加I/O线程数量示例代码副作用: 6. 异步消息发送(使用`dontwait`标志)示例代码副作用: 7. 其他可以考虑的优化项7.1 立即发送(ZMQ_IM