openpcdet中的优化器

2024-02-05 13:28
文章标签 优化 openpcdet

本文主要是介绍openpcdet中的优化器,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

OPTIMIZATION

优化器用于对梯度、学习率等进行调整
下面是一个优化器的配置:

OPTIMIZATION:BATCH_SIZE_PER_GPU: 4NUM_EPOCHS: 10OPTIMIZER: adam_onecycleLR: 0.001WEIGHT_DECAY: 0.04MOMENTUM: 0.8MOMS: [0.85, 0.75]PCT_START: 0.1DIV_FACTOR: 100DECAY_STEP_LIST: [35, 45]LR_DECAY: 0.1LR_CLIP: 0.0000001LR_WARMUP: FalseWARMUP_EPOCH: 1GRAD_NORM_CLIP: 10LOSS_SCALE_FP16: 32.0

下面来看每个配置的具体作用和含义:
按照配置的功能,可以分为以下几组:

  • 首先是batch_sizeepoch

    BATCH_SIZE_PER_GPU: 4 # 表示每个GPU上一次迭代的batch size 是4
    NUM_EPOCHS: 10 # 表示一共训练10个epoch

  • 然后是Optimizer(优化器)

    OPTIMIZER: adam_onecycle # 表示使用的优化器是adam_onecycle
    LR: 0.001 # 表示初始学习率是0.001
    WEIGHT_DECAY: 0.04 # 表示权重衰减系数是 0.04
    MOMENTUM: 0.8 # 表示MOMENTUM是0.8, SGD算法需要,其他不需要

  • 然后是Scheduler(学习率调度器)

参考:https://blog.csdn.net/ChuiGeDaQiQiu/article/details/121462371
MOMS: [0.95, 0.85]
PCT_START: 0.1
DIV_FACTOR: 100
DECAY_STEP_LIST: [35, 45]
LR_DECAY: 0.1
LR_CLIP: 0.0000001
LR_WARMUP: False
WARMUP_EPOCH: 1

  • 梯度裁剪clip_grad_norm_

GRAD_NORM_CLIP: 10
LOSS_SCALE_FP16: 32.0

下面对各个功能组件进行具体分析:
batch_size 和 epoch数比较简单,没啥好说的

下面来看Optimizer(优化器)

怎么构造

Optimizer在train.py中通过
build_optimizer(model, optim_cfg, filter_frozen_params=False) 函数进行构造

def build_optimizer(model, optim_cfg, filter_frozen_params=False):if optim_cfg.OPTIMIZER == 'adam':optimizer = optim.Adam(model.parameters(), lr=optim_cfg.LR, weight_decay=optim_cfg.WEIGHT_DECAY)elif optim_cfg.OPTIMIZER == 'sgd':optimizer = optim.SGD(model.parameters(), lr=optim_cfg.LR, weight_decay=optim_cfg.WEIGHT_DECAY,momentum=optim_cfg.MOMENTUM)elif optim_cfg.OPTIMIZER in ['adam_onecycle','adam_cosineanneal']:def children(m: nn.Module):return list(m.children())def num_children(m: nn.Module) -> int:return len(children(m))flatten_model = lambda m: sum(map(flatten_model, m.children()), []) if num_children(m) else [m]get_layer_groups = lambda m: [nn.Sequential(*flatten_model(m))]betas = optim_cfg.get('BETAS', (0.9, 0.99))betas = tuple(betas)optimizer_func = partial(optim.Adam, betas=betas)optimizer = OptimWrapper.create(optimizer_func, 3e-3, get_layer_groups(model), wd=optim_cfg.WEIGHT_DECAY, true_wd=True, bn_wd=True)else:raise NotImplementedErrorreturn optimizer

不同的Optimizer有不同的构造方法,openpcdet中提供了adam、sgd、adam_onecycle、adam_cosineanneal这几种Optimizer,这里不对Optimizer做具体解释,放在另外一个文档中进行具体分析

怎么使用

优化器的使用涉及到两方面:
一是使用优化器进行梯度更新
二是构造学习率调整器,由学习率调整器对优化器进行更新

首先来看使用优化器进行梯度更新
def train_one_epoch(..., optimizer, ...):... 忽略一堆代码# 混合精度训练的缩放操作scaler = torch.cuda.amp.GradScaler(enabled=use_amp, init_scale=optim_cfg.get('LOSS_SCALE_FP16', 2.0 ** 16))... 忽略一堆代码lr_scheduler.step(accumulated_iter, cur_epoch)  # 学习率调整try:cur_lr = float(optimizer.lr)    # 读取当前的学习率,用于日志显示except:cur_lr = optimizer.param_groups[0]['lr']if tb_log is not None:tb_log.add_scalar('meta_data/learning_rate', cur_lr, accumulated_iter)model.train()optimizer.zero_grad()      # 梯度清零with torch.cuda.amp.autocast(enabled=use_amp):loss, tb_dict, disp_dict = model_func(model, batch)scaler.scale(loss).backward()  # 如果不用混合精度训练,直接loss.backward()就行,进行方向传播计算scaler.unscale_(optimizer)     # 将优化器中的梯度反向缩放回原始的 FP32 精度clip_grad_norm_(model.parameters(), optim_cfg.GRAD_NORM_CLIP)   # 梯度裁剪,用于限制梯度的范数,防止梯度爆炸的情况发生scaler.step(optimizer)  # 使用优化器来更新模型的参数。由于之前已经对梯度进行了缩放处理,因此这里直接调用 step() 方法来执行参数更新scaler.update() # 用于更新 AMP 的内部状态,以便在下一次迭代中使用正确的缩放因子... 忽略一堆代码
然后看构造学习率调整器

将上面构造好的optimizer作为参数传入 build_scheduler() 函数,用于构造学习率调整器
然后构造好的学习率调整器在每次迭代调用lr_scheduler.step(accumulated_iter, cur_epoch) 进行学习率调整

下面来看Scheduler(学习率调度器)

怎么构造

在build_scheduler() 函数中进行构造:

def build_scheduler(optimizer, total_iters_each_epoch, total_epochs, last_epoch, optim_cfg):decay_steps = [x * total_iters_each_epoch for x in optim_cfg.DECAY_STEP_LIST]def lr_lbmd(cur_epoch):cur_decay = 1for decay_step in decay_steps:if cur_epoch >= decay_step:cur_decay = cur_decay * optim_cfg.LR_DECAYreturn max(cur_decay, optim_cfg.LR_CLIP / optim_cfg.LR)lr_warmup_scheduler = Nonetotal_steps = total_iters_each_epoch * total_epochsif optim_cfg.OPTIMIZER == 'adam_onecycle':lr_scheduler = OneCycle(optimizer, total_steps, optim_cfg.LR, list(optim_cfg.MOMS), optim_cfg.DIV_FACTOR, optim_cfg.PCT_START)elif optim_cfg.OPTIMIZER == 'adam_cosineanneal':lr_scheduler = CosineAnnealing(optimizer, total_steps, total_epochs, optim_cfg.LR, list(optim_cfg.MOMS), optim_cfg.PCT_START, optim_cfg.WARMUP_ITER)else:lr_scheduler = lr_sched.LambdaLR(optimizer, lr_lbmd, last_epoch=last_epoch)if optim_cfg.LR_WARMUP:lr_warmup_scheduler = CosineWarmupLR(optimizer, T_max=optim_cfg.WARMUP_EPOCH * len(total_iters_each_epoch),eta_min=optim_cfg.LR / optim_cfg.DIV_FACTOR)return lr_scheduler, lr_warmup_scheduler

最后返回 lr_scheduler, lr_warmup_scheduler , 分别是学习率调度器和学习率warmup调度器(LR_WARMUP=True时)

怎么使用

学习率调度器用法很简单:
只要在每次迭代中传入当前的迭代次数和当前的epoch数,调用step函数就可以更新学习率了
lr_scheduler.step(accumulated_iter, cur_epoch)

下面来看梯度裁剪

梯度裁剪使用比较简单:
调用函数就可以:
clip_grad_norm_(model.parameters(), optim_cfg.GRAD_NORM_CLIP)

这篇关于openpcdet中的优化器的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/681054

相关文章

从原理到实战解析Java Stream 的并行流性能优化

《从原理到实战解析JavaStream的并行流性能优化》本文给大家介绍JavaStream的并行流性能优化:从原理到实战的全攻略,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的... 目录一、并行流的核心原理与适用场景二、性能优化的核心策略1. 合理设置并行度:打破默认阈值2. 避免装箱

Python实战之SEO优化自动化工具开发指南

《Python实战之SEO优化自动化工具开发指南》在数字化营销时代,搜索引擎优化(SEO)已成为网站获取流量的重要手段,本文将带您使用Python开发一套完整的SEO自动化工具,需要的可以了解下... 目录前言项目概述技术栈选择核心模块实现1. 关键词研究模块2. 网站技术seo检测模块3. 内容优化分析模

Java实现复杂查询优化的7个技巧小结

《Java实现复杂查询优化的7个技巧小结》在Java项目中,复杂查询是开发者面临的“硬骨头”,本文将通过7个实战技巧,结合代码示例和性能对比,手把手教你如何让复杂查询变得优雅,大家可以根据需求进行选择... 目录一、复杂查询的痛点:为何你的代码“又臭又长”1.1冗余变量与中间状态1.2重复查询与性能陷阱1.

Python内存优化的实战技巧分享

《Python内存优化的实战技巧分享》Python作为一门解释型语言,虽然在开发效率上有着显著优势,但在执行效率方面往往被诟病,然而,通过合理的内存优化策略,我们可以让Python程序的运行速度提升3... 目录前言python内存管理机制引用计数机制垃圾回收机制内存泄漏的常见原因1. 循环引用2. 全局变

Python多线程应用中的卡死问题优化方案指南

《Python多线程应用中的卡死问题优化方案指南》在利用Python语言开发某查询软件时,遇到了点击搜索按钮后软件卡死的问题,本文将简单分析一下出现的原因以及对应的优化方案,希望对大家有所帮助... 目录问题描述优化方案1. 网络请求优化2. 多线程架构优化3. 全局异常处理4. 配置管理优化优化效果1.

MySQL中优化CPU使用的详细指南

《MySQL中优化CPU使用的详细指南》优化MySQL的CPU使用可以显著提高数据库的性能和响应时间,本文为大家整理了一些优化CPU使用的方法,大家可以根据需要进行选择... 目录一、优化查询和索引1.1 优化查询语句1.2 创建和优化索引1.3 避免全表扫描二、调整mysql配置参数2.1 调整线程数2.

深入解析Java NIO在高并发场景下的性能优化实践指南

《深入解析JavaNIO在高并发场景下的性能优化实践指南》随着互联网业务不断演进,对高并发、低延时网络服务的需求日益增长,本文将深入解析JavaNIO在高并发场景下的性能优化方法,希望对大家有所帮助... 目录简介一、技术背景与应用场景二、核心原理深入分析2.1 Selector多路复用2.2 Buffer

SpringBoot利用树形结构优化查询速度

《SpringBoot利用树形结构优化查询速度》这篇文章主要为大家详细介绍了SpringBoot利用树形结构优化查询速度,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一个真实的性能灾难传统方案为什么这么慢N+1查询灾难性能测试数据对比核心解决方案:一次查询 + O(n)算法解决

小白也能轻松上手! 路由器设置优化指南

《小白也能轻松上手!路由器设置优化指南》在日常生活中,我们常常会遇到WiFi网速慢的问题,这主要受到三个方面的影响,首要原因是WiFi产品的配置优化不合理,其次是硬件性能的不足,以及宽带线路本身的质... 在数字化时代,网络已成为生活必需品,追剧、游戏、办公、学习都离不开稳定高速的网络。但很多人面对新路由器

MySQL深分页进行性能优化的常见方法

《MySQL深分页进行性能优化的常见方法》在Web应用中,分页查询是数据库操作中的常见需求,然而,在面对大型数据集时,深分页(deeppagination)却成为了性能优化的一个挑战,在本文中,我们将... 目录引言:深分页,真的只是“翻页慢”那么简单吗?一、背景介绍二、深分页的性能问题三、业务场景分析四、