莫凡Pytorch学习笔记(三)

2023-12-11 20:10
文章标签 学习 笔记 pytorch 莫凡

本文主要是介绍莫凡Pytorch学习笔记(三),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Pytorch分类模型搭建

本篇笔记主要对应于莫凡Pytorch中的3.2节。主要讲了如何使用Pytorch搭建一个分类模型的神经网络。

这里我们同样是继承torch.nn.Module来书写自己的神经网络。在继承该类时,必须重新实现__init__构造函数和forward这两个方法。
接下来我们来自己搭建一个分类模型的神经网络。

数据生成与展示

import torch
import torch.nn.functional as F
import matplotlib.pyplot as plt

这里生成两组正态分布的数据。

其中类别0的数据维度为2,其在各个维度上服从均值为2,方差为1的正态分布,该组数据标签为0,共计 100个数据;
类别1的数据维度为2,其在各个维度上服从均值为-2,方差为1的正态分布,该组数据标签为1,共计 100个数据。

n_data = torch.ones(100, 2)
x0 = torch.normal(2*n_data, 1)            # class0 x data (tensor), shape=(100, 2)
y0 = torch.zeros(100)                     # class0 y data (tensor), shape=(100, 2)
x1 = torch.normal(-2*n_data, 1)           # class1 x data (tensor), shape=(100, 2)
y1 = torch.ones(100)                      # class1 y data (tensor), shape=(100, 2)
x = torch.cat((x0, x1), 0).float()        # FloatTensor
y = torch.cat((y0, y1), 0).long()         # LongTensor

然后我们将两组数据拼接起来,作为全部的训练数据集。

其可视化展示如下。

plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=y.data.numpy())
plt.savefig("./img/03_data.png")
plt.show()

在这里插入图片描述

基本网络搭建

我们自定义一个类来完成分类操作

class Net(torch.nn.Module):def __init__(self, n_feature, n_hidden, n_output):# 分别表示feature个数、隐藏层神经元数个数、输出值数目super(Net, self).__init__()self.hidden = torch.nn.Linear(n_feature, n_hidden)self.predict = torch.nn.Linear(n_hidden, n_output)def forward(self, x):# x 是输入数据x = F.relu(self.hidden(x))   # x -> (n_sample, n_hidden)x = self.predict(x)          # x -> (n_sample, n_output)y = F.softmax(x, dim=1)      # y -> (n_sample, n_probability(=n_output)))return y

这是一个两层的神经网络,其包含一个隐藏层即self.hidden,之后便连接一个输出层self.predict。在前向传播时,网络对隐层的输出进行了Relu操作。与之前回归模型使用的架构基本相同。不同的是,我们在输出之后使用了一步Softmax操作将其输出值归一化到概率值上,判断哪个类别的概率更大,来进行分类。

这里的维度信息尤其要注意,输入x是 n s a m p l e × n f e a t u r e n_{sample} \times n_{feature} nsample×nfeature 200 × 2 200\times 2 200×2的向量。经过一层hidden后,维度变为 n s a m p l e × n h i d d e n n_{sample} \times n_{hidden} nsample×nhidden,再经过一层predict层后,维度变为 n s a m p l e × n o u t p u t n_{sample} \times n_{output} nsample×noutput,最后进行Softmax时,我们是在每个样本的feature维度上进行的,即dim=1,该维度的向量长度为2,进行Softmax操作之后即得到对应每个类别的预测概率值。

网络搭建完成后,我们可以打印输出一下这个网络的基本结构

net = Net(2, 10, 2)  # 输入为整个Batch的训练数据,每条数据为2个特征,xy坐标,输出为一个长度为200*2向量,其中每个[0, 1]表示输出为1,[1, 0]表示输出为0
print(net)

得到输出如下

Net((hidden): Linear(in_features=2, out_features=10, bias=True)(predict): Linear(in_features=10, out_features=2, bias=True)
)

设置优化器和损失函数

接下来我们设置网络的优化器和损失函数。
优化方法设置为随机梯度下降法,学习率设置为0.02。
一般分类问题使用交叉熵损失函数。

optimizer = torch.optim.SGD(net.parameters(), lr=0.02)
loss_func = torch.nn.CrossEntropyLoss()   # 分类问题一般用CrossEntropy的loss

训练与展示

最后,我们展示输出并可视化中间过程。

plt.ion()for step in range(20):out = net(x)            # out是输出的激活值loss = loss_func(out, y)optimizer.zero_grad()   # 首先将所有参数的梯度降为0(因为每次计算梯度后这个值都会保留,不清零就会导致不正确)loss.backward()         # 进行反向传递,计算出计算图中所有节点的梯度optimizer.step()        # 计算完成后,使用optimizer优化这些梯度if step % 5 == 0:# plot and show learning processplt.cla()prediction = torch.max(out, 1)[1]         # 这里是输出的结果pred_y = prediction.data.numpy()target_y = y.data.numpy()plt.scatter(x.data.numpy()[:, 0], x.data.numpy()[:, 1], c=pred_y, s=100, lw=0, cmap='RdYlGn')accuracy = float((pred_y == target_y).astype(int).sum()) / float(target_y.size)plt.text(1.5, -4, 'Accuracy=%.2f' % accuracy, fontdict={'size': 20, 'color':  'red'})plt.pause(0.1)plt.ioff()
plt.show()

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

可以看到随着训练的进行,loss逐渐降低,模型预测的效果越来越好。

参考

  1. 莫凡Python:Pytorch动态神经网络,https://mofanpy.com/tutorials/machine-learning/torch/

这篇关于莫凡Pytorch学习笔记(三)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/481964

相关文章

使用PyTorch实现手写数字识别功能

《使用PyTorch实现手写数字识别功能》在人工智能的世界里,计算机视觉是最具魅力的领域之一,通过PyTorch这一强大的深度学习框架,我们将在经典的MNIST数据集上,见证一个神经网络从零开始学会识... 目录当计算机学会“看”数字搭建开发环境MNIST数据集解析1. 认识手写数字数据库2. 数据预处理的

Pytorch微调BERT实现命名实体识别

《Pytorch微调BERT实现命名实体识别》命名实体识别(NER)是自然语言处理(NLP)中的一项关键任务,它涉及识别和分类文本中的关键实体,BERT是一种强大的语言表示模型,在各种NLP任务中显著... 目录环境准备加载预训练BERT模型准备数据集标记与对齐微调 BERT最后总结环境准备在继续之前,确

pytorch+torchvision+python版本对应及环境安装

《pytorch+torchvision+python版本对应及环境安装》本文主要介绍了pytorch+torchvision+python版本对应及环境安装,安装过程中需要注意Numpy版本的降级,... 目录一、版本对应二、安装命令(pip)1. 版本2. 安装全过程3. 命令相关解释参考文章一、版本对

Java进阶学习之如何开启远程调式

《Java进阶学习之如何开启远程调式》Java开发中的远程调试是一项至关重要的技能,特别是在处理生产环境的问题或者协作开发时,:本文主要介绍Java进阶学习之如何开启远程调式的相关资料,需要的朋友... 目录概述Java远程调试的开启与底层原理开启Java远程调试底层原理JVM参数总结&nbsMbKKXJx

从零教你安装pytorch并在pycharm中使用

《从零教你安装pytorch并在pycharm中使用》本文详细介绍了如何使用Anaconda包管理工具创建虚拟环境,并安装CUDA加速平台和PyTorch库,同时在PyCharm中配置和使用PyTor... 目录背景介绍安装Anaconda安装CUDA安装pytorch报错解决——fbgemm.dll连接p

pycharm远程连接服务器运行pytorch的过程详解

《pycharm远程连接服务器运行pytorch的过程详解》:本文主要介绍在Linux环境下使用Anaconda管理不同版本的Python环境,并通过PyCharm远程连接服务器来运行PyTorc... 目录linux部署pytorch背景介绍Anaconda安装Linux安装pytorch虚拟环境安装cu

Java深度学习库DJL实现Python的NumPy方式

《Java深度学习库DJL实现Python的NumPy方式》本文介绍了DJL库的背景和基本功能,包括NDArray的创建、数学运算、数据获取和设置等,同时,还展示了如何使用NDArray进行数据预处理... 目录1 NDArray 的背景介绍1.1 架构2 JavaDJL使用2.1 安装DJL2.2 基本操

PyTorch使用教程之Tensor包详解

《PyTorch使用教程之Tensor包详解》这篇文章介绍了PyTorch中的张量(Tensor)数据结构,包括张量的数据类型、初始化、常用操作、属性等,张量是PyTorch框架中的核心数据结构,支持... 目录1、张量Tensor2、数据类型3、初始化(构造张量)4、常用操作5、常用属性5.1 存储(st

HarmonyOS学习(七)——UI(五)常用布局总结

自适应布局 1.1、线性布局(LinearLayout) 通过线性容器Row和Column实现线性布局。Column容器内的子组件按照垂直方向排列,Row组件中的子组件按照水平方向排列。 属性说明space通过space参数设置主轴上子组件的间距,达到各子组件在排列上的等间距效果alignItems设置子组件在交叉轴上的对齐方式,且在各类尺寸屏幕上表现一致,其中交叉轴为垂直时,取值为Vert

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用