pytorch学习笔记 (visdom可视化、正则化、动量、学习率衰减、BN)

2024-01-25 15:28

本文主要是介绍pytorch学习笔记 (visdom可视化、正则化、动量、学习率衰减、BN),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、visdom可视化工具

安装: pip install visdom

启动: 命令行直接运行visdom

打开WEB: 在浏览器使用http://localhost:8097打开visdom界面

二、使用visdom

# 导入Visdom类
from visdom import Visdom
# 定义一个env叫Mnist的board,如果不指定,则默认归于main
viz = Visdom(env='Mnist')# 在window Accuracy中画train acc和test acc,x坐标都是epoch
viz.line(Y=np.column_stack((acc, test_acc)),X=np.column_stack((epoch, epoch)),win='Accuracy',update='append',opts=dict(markers=False, legend=['Acc', 'Test Acc']))
# 在window Loss中画train loss和test loss,x坐标都是epoch
viz.line(Y=np.column_stack((loss.cpu().item(), test_loss.cpu().item())),X=np.column_stack((epoch, epoch)),win='Loss',update='append',opts=dict(markers=False, legend=['Loss', 'Test Loss']))

三、使用正则化

正则化也叫权重衰减(Weight Decay)

L1和L2正则化可以参考:https://blog.csdn.net/red_stone1/article/details/80755144

在代码中,我们只需要在优化器中使用weight_decay参数就可以启用L2正则化

# 选择一个优化器,指定需要优化的参数,学习率,以及正则化参数
optimizer = torch.optim.SGD(net.parameters(), lr=learning_rate, weight_decay=0.01)

由于在Pytorch中没有纳入L1正则化,我们可以通过手工实现:

# 正则化超参数lambda
lambd = 0.01
# 所有参数的绝对值的和
regularization_loss = 0for param in model.parameters():regularization_loss += torch.sum(torch.abs(param))# 自己手动在loss函数后添加L1正则项 lambda * sum(abs)
loss = F.cross_entropy(z, target) + lambd * regularization_loss
optimizer.zero_grad()
loss.backward()

四、使用Momentum动量

使用Momentum,即在使用SGD时指定momentum参数,如果不指定,默认为0,即不开启动量优化模式。

# 选择一个优化器,指定需要优化的参数,学习率,以及正则化参数,是否使用momentum
optimizer = torch.optim.SGD(net.parameters(), lr=learning_rate, momentum=0.9, weight_decay=0.01)

使用Adam时,由于Adam包含了Monmentum,所以他自己指定了Momentum参数的大小,无需我们指定。

五、学习率衰减 Learning rate decay

当学习率太小时,梯度下降很慢。当学习率太大时,可以在某个狭窄区间震荡,难以收敛。

学习率衰减就是为了解决学习率多大这种情况。

当我们在训练一个模型时,发现Loss在某个时间不发生变化(在一个平坦区),则我们要考虑是否是在一个狭窄区间震荡,导致的难以收敛。

我们在pytorch中可以使用ReducelROnPlateau(optimizer,‘min’)来监控loss的值:

from torch.optim.lr_scheduler import ReduceLROnPlateau# 选择一个优化器,指定需要优化的参数,学习率,以及正则化参数,是否使用momentum
optimizer = torch.optim.SGD(net.parameters(), lr=learning_rate, momentum=0.9, weight_decay=0.01)# 使用一个高原监控器,将optimizer交给他管理,LR衰减参数默认0.1即一次缩小10倍,patience是监控10次loss看是否变化
scheduler = ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10)# 后面的optimizer.step()使用scheduler.step(loss)来代替,每次step都会监控一下loss
# 当loss在10次(可以设置)都未变化,则会使LR衰减一定的比例

另外,除了上述使用ReducelROnPlateau,还可以使用更为粗暴的StepLR函数,我们可以直接指定在多少step后下降一次LR的值:

from torch.optim.lr_scheduler import StepLR# 选择一个优化器,指定需要优化的参数,学习率,以及正则化参数,是否使用momentum
optimizer = torch.optim.SGD(net.parameters(), lr=learning_rate, momentum=0.9, weight_decay=0.01)# 使用StepLR,指定step_size即每多少步衰减一次,gamma为衰减率,0.1代表除以10
scheduler = StepLR(optimizer, step_size = 10000, gamma=0.1)# 后面的optimizer.step()使用scheduler.step()

六、在全连接层使用batchnorm

# -*- coding:utf-8 -*-
__author__ = 'Leo.Z'import torch
from visdom import Visdom
import numpy as npimport torch.nn.functional as F
from torch.nn import Module, Sequential, Linear, LeakyReLU, BatchNorm1d
from torchvision import datasets, transforms
from torch.utils.data import DataLoaderbatch_size = 200
learning_rate = 0.001
epochs = 100train_data = datasets.MNIST('../data', train=True, download=True,transform=transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.1307,), (0.3081,))]))test_data = datasets.MNIST('../data', train=False,transform=transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.1307,), (0.3081,))]))train_db, val_db = torch.utils.data.random_split(train_data, [50000, 10000])train_loader = DataLoader(train_db,batch_size=100, shuffle=True)
val_loader = DataLoader(val_db,batch_size=10000, shuffle=True)
test_loader = DataLoader(test_data,batch_size=10000, shuffle=True)# 网络结构
class MLP(Module):def __init__(self):super(MLP, self).__init__()self.model = Sequential(Linear(784, 200),#===================== BN-start ======================# 这里对第一层全连接层使用BN1d,在多个样本上对每一个神经元做归一化BatchNorm1d(200, eps=1e-8),# ===================== BN-end =======================LeakyReLU(inplace=True),Linear(200, 200),#===================== BN-start ======================# 这里对第二层全连接层使用BN1d,在多个样本上对每一个神经元做归一化BatchNorm1d(200, eps=1e-8),# ===================== BN-end =======================LeakyReLU(inplace=True),Linear(200, 10),LeakyReLU(inplace=True))def forward(self, x):x = self.model(x)return x# 定义一个env叫Mnist的board,如果不指定,则默认归于main
viz = Visdom(env='TestBN')# 定义GPU设备
device = torch.device('cuda')
# model放到GPU
net = MLP().to(device)# 选择一个优化器,指定需要优化的参数,学习率,以及正则化参数,是否使用momentum
optimizer = torch.optim.SGD(net.parameters(), lr=learning_rate, momentum=0.9, weight_decay=0.01)for idx, (val_data, val_target) in enumerate(val_loader):val_data = val_data.view(-1, 28 * 28)val_data, val_target = val_data.to(device), val_target.to(device)for epoch in range(epochs):for batch_idx, (data, target) in enumerate(train_loader):# data转换维度为[200,784],target的维度为[200]data = data.view(-1, 28 * 28)# 将data和target放到GPUdata, target = data.to(device), target.to(device)# data为输入,net()直接执行forward# 跑一次网络,得到z,维度为[200,10],200是batch_size,10是类别# 由于net在GPU,data也在GPU,计算出的z就在GPU# 调用net(data)的时候相当于调用Module类的__call__方法z = net(data).to(device)# 将loss放到GPUloss = F.cross_entropy(z, target).to(device)# 每次迭代前将梯度置0optimizer.zero_grad()# 反向传播,计算梯度loss.backward()# 相当于执行w = w - dw,也就是更新权值optimizer.step()### 每一轮epoch,以下代码是使用分割出的val dataset来做测试# 先计算在train dataset上的准确率eq_mat = torch.eq(z.argmax(dim=1), target)acc = torch.sum(eq_mat).float().item() / eq_mat.size()[0]print('Loss:', loss)print('Accuracy:', acc)# 用val跑一遍网络,并计算在val dataset上的准确率# ===================== BN-start =====================# 跑网络之前,先将BN层设置为validation模式# BN层会自动使用在训练时累计的running_mean和running_varnet.eval()#net.model[1].eval()#net.model[4].eval()# ===================== BN-end =======================val_z = net(val_data).to(device)val_loss = F.cross_entropy(val_z, val_target).to(device)val_eq_mat = torch.eq(val_z.argmax(dim=1), val_target)val_acc = torch.sum(val_eq_mat).float().item() / val_eq_mat.size()[0]print('Val Loss:', val_loss)print('Val Accuracy:', val_acc)# 将loss和acc画到visdom中viz.line(Y=np.column_stack((acc, val_acc)),X=np.column_stack((epoch, epoch)),win='Accuracy',update='append',opts=dict(markers=False, legend=['Acc', 'Val Acc']))# 将val loss和val acc画到visdom中viz.line(Y=np.column_stack((loss.cpu().item(), val_loss.cpu().item())),X=np.column_stack((epoch, epoch)),win='Loss',update='append',opts=dict(markers=False, legend=['Loss', 'Val Loss']))

使用BN时的ACC和LOSS:

未使用BN时的ACC和LOSS:

从上述结果可以看出,使用BN后,收敛速度变快。

这篇关于pytorch学习笔记 (visdom可视化、正则化、动量、学习率衰减、BN)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/643697

相关文章

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

【前端学习】AntV G6-08 深入图形与图形分组、自定义节点、节点动画(下)

【课程链接】 AntV G6:深入图形与图形分组、自定义节点、节点动画(下)_哔哩哔哩_bilibili 本章十吾老师讲解了一个复杂的自定义节点中,应该怎样去计算和绘制图形,如何给一个图形制作不间断的动画,以及在鼠标事件之后产生动画。(有点难,需要好好理解) <!DOCTYPE html><html><head><meta charset="UTF-8"><title>06

学习hash总结

2014/1/29/   最近刚开始学hash,名字很陌生,但是hash的思想却很熟悉,以前早就做过此类的题,但是不知道这就是hash思想而已,说白了hash就是一个映射,往往灵活利用数组的下标来实现算法,hash的作用:1、判重;2、统计次数;

零基础学习Redis(10) -- zset类型命令使用

zset是有序集合,内部除了存储元素外,还会存储一个score,存储在zset中的元素会按照score的大小升序排列,不同元素的score可以重复,score相同的元素会按照元素的字典序排列。 1. zset常用命令 1.1 zadd  zadd key [NX | XX] [GT | LT]   [CH] [INCR] score member [score member ...]

【机器学习】高斯过程的基本概念和应用领域以及在python中的实例

引言 高斯过程(Gaussian Process,简称GP)是一种概率模型,用于描述一组随机变量的联合概率分布,其中任何一个有限维度的子集都具有高斯分布 文章目录 引言一、高斯过程1.1 基本定义1.1.1 随机过程1.1.2 高斯分布 1.2 高斯过程的特性1.2.1 联合高斯性1.2.2 均值函数1.2.3 协方差函数(或核函数) 1.3 核函数1.4 高斯过程回归(Gauss

【学习笔记】 陈强-机器学习-Python-Ch15 人工神经网络(1)sklearn

系列文章目录 监督学习:参数方法 【学习笔记】 陈强-机器学习-Python-Ch4 线性回归 【学习笔记】 陈强-机器学习-Python-Ch5 逻辑回归 【课后题练习】 陈强-机器学习-Python-Ch5 逻辑回归(SAheart.csv) 【学习笔记】 陈强-机器学习-Python-Ch6 多项逻辑回归 【学习笔记 及 课后题练习】 陈强-机器学习-Python-Ch7 判别分析 【学

系统架构师考试学习笔记第三篇——架构设计高级知识(20)通信系统架构设计理论与实践

本章知识考点:         第20课时主要学习通信系统架构设计的理论和工作中的实践。根据新版考试大纲,本课时知识点会涉及案例分析题(25分),而在历年考试中,案例题对该部分内容的考查并不多,虽在综合知识选择题目中经常考查,但分值也不高。本课时内容侧重于对知识点的记忆和理解,按照以往的出题规律,通信系统架构设计基础知识点多来源于教材内的基础网络设备、网络架构和教材外最新时事热点技术。本课时知识

线性代数|机器学习-P36在图中找聚类

文章目录 1. 常见图结构2. 谱聚类 感觉后面几节课的内容跨越太大,需要补充太多的知识点,教授讲得内容跨越较大,一般一节课的内容是书本上的一章节内容,所以看视频比较吃力,需要先预习课本内容后才能够很好的理解教授讲解的知识点。 1. 常见图结构 假设我们有如下图结构: Adjacency Matrix:行和列表示的是节点的位置,A[i,j]表示的第 i 个节点和第 j 个

Node.js学习记录(二)

目录 一、express 1、初识express 2、安装express 3、创建并启动web服务器 4、监听 GET&POST 请求、响应内容给客户端 5、获取URL中携带的查询参数 6、获取URL中动态参数 7、静态资源托管 二、工具nodemon 三、express路由 1、express中路由 2、路由的匹配 3、路由模块化 4、路由模块添加前缀 四、中间件