Open-FWI代码解析(4)

2024-02-25 00:52
文章标签 代码 解析 open fwi

本文主要是介绍Open-FWI代码解析(4),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1. scheduler文件

        1.1 WarmupMultiStepLR类

        这部分代码主要是设置优化器学习率的参数, 如刚开始学习率较低(热身阶段), 中途恢复正常, 之后每过多少epoch降低到中途恢复正常学习率的多少倍

class WarmupMultiStepLR(torch.optim.lr_scheduler._LRScheduler):def __init__(self,optimizer,milestones,gamma=0.1,warmup_factor=1.0 / 3,warmup_iters=5,warmup_method="linear",last_epoch=-1,):''':param optimizer: 优化器:param milestones: 在第几个epoch降低学习率:param gamma: 降低gamma倍学习率:param warmup_factor:预热因子,即预热期间学习率相对于初始学习率的比例,默认为 1/3。:param warmup_iters:warmup 期间的 epoch 数量。:param warmup_method:warmup 策略。可以是 "constant" 或 "linear"。"constant" 表示在前几个 epoch 中保持学习率不变,"linear" 表示逐渐增加学习率。:param last_epoch:在初始化时,last_epoch 的初始值为 -1,表示还没有进行任何训练。随着每个 epoch 的结束,last_epoch 的值会逐渐增加,以便调度器可以根据当前的 epoch 来调整学习率。'''# 用于检查是否为升序排列if not milestones == sorted(milestones):raise ValueError("Milestones should be a list of" " increasing integers. Got {}",milestones,)# 这段代码用于检查 warmup_method 是否为 "constant" 或 "linear" 中的一个if warmup_method not in ("constant", "linear"):raise ValueError("Only 'constant' or 'linear' warmup_method accepted""got {}".format(warmup_method))self.milestones = milestonesself.gamma = gammaself.warmup_factor = warmup_factorself.warmup_iters = warmup_itersself.warmup_method = warmup_method# super().__init__(optimizer, last_epoch)也行super(WarmupMultiStepLR, self).__init__(optimizer, last_epoch)def get_lr(self):warmup_factor = 1if self.last_epoch < self.warmup_iters:if self.warmup_method == "constant":warmup_factor = self.warmup_factorelif self.warmup_method == "linear":alpha = float(self.last_epoch) / self.warmup_iterswarmup_factor = self.warmup_factor * (1 - alpha) + alphareturn [base_lr *warmup_factor *self.gamma ** bisect_right(self.milestones, self.last_epoch)for base_lr in self.base_lrs]if __name__ == '__main__':print('---------------------')# optimizer:需要进行学习率调整的优化器。# milestones:一个升序排列的列表,表示需要调整学习率的 epoch。# gamma:每次调整时,学习率将乘以 gamma。# warmup_factor:warmup 期间,学习率将逐渐从初始值增加到原始学习率的一部分。该参数指定增加到原始学习率的比例。# warmup_iters:warmup 期间的 epoch 数量。# warmup_method:warmup 策略。可以是 "constant" 或 "linear"。"constant" 表示在前几个 epoch 中保持学习率不变,"linear" 表示逐渐增加学习率。# 以下是调用上述代码的一个示例# import torch# import torch.optim as optim# from bisect import bisect_right# import scheduler# model = YourModel()设置模型# optimizer = optim.SGD(model.parameters(), lr=0.1)# 定义学习率调整策略# milestones = [30, 60, 90]  # 在第30、60、90个epoch调整学习率# scheduler = scheduler.WarmupMultiStepLR(optimizer, milestones,#                                         gamma=0.1, warmup_factor=0.3, warmup_iters=5,#                                         warmup_method="linear")# 训练循环# for epoch in range(100):#     # 在每个epoch开始前更新学习率#     scheduler.step()# #     # 训练模型#     train(train_loader)# #     # 验证模型#     validate(val_loader)

这篇关于Open-FWI代码解析(4)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/743932

相关文章

uniapp接入微信小程序原生代码配置方案(优化版)

uniapp项目需要把微信小程序原生语法的功能代码嵌套过来,无需把原生代码转换为uniapp,可以配置拷贝的方式集成过来 1、拷贝代码包到src目录 2、vue.config.js中配置原生代码包直接拷贝到编译目录中 3、pages.json中配置分包目录,原生入口组件的路径 4、manifest.json中配置分包,使用原生组件 5、需要把原生代码包里的页面修改成组件的方

解析 XML 和 INI

XML 1.TinyXML库 TinyXML是一个C++的XML解析库  使用介绍: https://www.cnblogs.com/mythou/archive/2011/11/27/2265169.html    使用的时候,只要把 tinyxml.h、tinystr.h、tinystr.cpp、tinyxml.cpp、tinyxmlerror.cpp、tinyxmlparser.

公共筛选组件(二次封装antd)支持代码提示

如果项目是基于antd组件库为基础搭建,可使用此公共筛选组件 使用到的库 npm i antdnpm i lodash-esnpm i @types/lodash-es -D /components/CommonSearch index.tsx import React from 'react';import { Button, Card, Form } from 'antd'

17.用300行代码手写初体验Spring V1.0版本

1.1.课程目标 1、了解看源码最有效的方式,先猜测后验证,不要一开始就去调试代码。 2、浓缩就是精华,用 300行最简洁的代码 提炼Spring的基本设计思想。 3、掌握Spring框架的基本脉络。 1.2.内容定位 1、 具有1年以上的SpringMVC使用经验。 2、 希望深入了解Spring源码的人群,对 Spring有一个整体的宏观感受。 3、 全程手写实现SpringM

代码随想录算法训练营:12/60

非科班学习算法day12 | LeetCode150:逆波兰表达式 ,Leetcode239: 滑动窗口最大值  目录 介绍 一、基础概念补充: 1.c++字符串转为数字 1. std::stoi, std::stol, std::stoll, std::stoul, std::stoull(最常用) 2. std::stringstream 3. std::atoi, std

记录AS混淆代码模板

开启混淆得先在build.gradle文件中把 minifyEnabled false改成true,以及shrinkResources true//去除无用的resource文件 这些是写在proguard-rules.pro文件内的 指定代码的压缩级别 -optimizationpasses 5 包明不混合大小写 -dontusemixedcaseclassnames 不去忽略非公共

麻了!一觉醒来,代码全挂了。。

作为⼀名程序员,相信大家平时都有代码托管的需求。 相信有不少同学或者团队都习惯把自己的代码托管到GitHub平台上。 但是GitHub大家知道,经常在访问速度这方面并不是很快,有时候因为网络问题甚至根本连网站都打不开了,所以导致使用体验并不友好。 经常一觉醒来,居然发现我竟然看不到我自己上传的代码了。。 那在国内,除了GitHub,另外还有一个比较常用的Gitee平台也可以用于

tf.split()函数解析

API原型(TensorFlow 1.8.0): tf.split(     value,     num_or_size_splits,     axis=0,     num=None,     name='split' ) 这个函数是用来切割张量的。输入切割的张量和参数,返回切割的结果。  value传入的就是需要切割的张量。  这个函数有两种切割的方式: 以三个维度的张量为例,比如说一

众所周知,配置即代码≠基础设置即代码

​前段时间翻到几条留言,问: “配置即代码和基础设施即代码一样吗?” “配置即代码是什么?怎么都是基础设施即代码?” 我们都是知道,DevOp的快速发展,让服务器管理与配置的时间大大减少,配置即代码和基础设施即代码作为DevOps的重要实践,在其中起到了关键性作用。 不少人将二者看作是一件事,配置即大代码是关于管理特定的应用程序配置设置本身,而基础设施即代码更关注的是部署支持应用程序环境所需的

53、Flink Interval Join 代码示例

1、概述 interval Join 默认会根据 keyBy 的条件进行 Join 此时为 Inner Join; interval Join 算子的水位线会取两条流中水位线的最小值; interval Join 迟到数据的判定是以 interval Join 算子的水位线为基准; interval Join 可以分别输出两条流中迟到的数据-[sideOutputLeftLateData,