【PyTorch简介】3.Loading and normalizing datasets 加载和规范化数据集

本文主要是介绍【PyTorch简介】3.Loading and normalizing datasets 加载和规范化数据集,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Loading and normalizing datasets 加载和规范化数据集

文章目录

  • Loading and normalizing datasets 加载和规范化数据集
  • Datasets & DataLoaders 数据集和数据加载器
  • Loading a Dataset 加载数据集
  • Iterating and Visualizing the Dataset 迭代和可视化数据集
  • Creating a Custom Dataset for your files 为您的文件创建自定义数据集
    • \__init__
    • \__len__
    • \__getitem__
  • Preparing your data for training with DataLoaders 使用 DataLoaders 准备数据以进行训练
  • Iterate through the DataLoader 遍历 DataLoader
  • Normalization 正则化
    • Transforms 转换
    • ToTensor()
    • Lambda transforms
  • 知识检查
  • Further Reading 进一步阅读
  • References 参考文献
  • Github

Datasets & DataLoaders 数据集和数据加载器

用于处理数据样本的代码可能会变得混乱且难以维护;理想情况下,我们希望数据集代码与模型训练代码分离,以获得更好的可读性和模块化性。PyTorch 提供了两个数据原语:torch.utils.data.DataLoadertorch.utils.data.Dataset ,允许您使用预加载的数据集以及您自己的数据。 Dataset存储样本及其相应的标签,并DataLoader围绕 Dataset进行迭代,以方便访问样本。

PyTorch 域库提供了许多预加载的数据集(例如 FashionMNIST)。这些数据集是torch.utils.data.Dataset的子类。并且,对于特定数据,实现特定的函数。它们可用于对您的模型进行原型设计和基准测试。您可以在这里找到它们:图像数据集、 文本数据集和 音频数据集

Loading a Dataset 加载数据集

以下是如何从 TorchVision 加载Fashion-MNIST数据集的示例。Fashion-MNIST 是 Zalando 论文的图像数据集。这个数据集由 60,000 个训练样本和 10,000 个测试样本组成。每个样本包含一个 28×28 灰度图像和来自 10 个类别之一的关联标签。

  • 每张图像的高度为 28 像素,宽度为 28 像素,总共 784 像素。
  • 这 10 个类别表示图像的类型,例如:T 恤/上衣、裤子、套头衫、连衣裙、包、踝靴等.
  • 灰度像素的值介于 0 到 255 之间,用于测量黑白图像的强度。强度值从白色增加到黑色。例如:白色为 0,黑色为 255。

我们使用以下参数,来加载FashionMNIST Dataset:

  • root 是存储训练/测试数据的路径,

  • train 指定训练或测试数据集,

  • download=True 如果root 上没有数据,则从 Internet 下载数据。

  • transformtarget_transform 指定特征和标签的转换。

%matplotlib inline
import torch
from torch.utils.data import Dataset
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda
import matplotlib.pyplot as plttraining_data = datasets.FashionMNIST(root="data",train=True,download=True,transform=ToTensor()
)test_data = datasets.FashionMNIST(root="data",train=False,download=True,transform=ToTensor()
)

Iterating and Visualizing the Dataset 迭代和可视化数据集

我们可以像列表一样手动索引Datasetstraining_data[index]。我们用matplotlib来可视化训练数据中的一些样本。

labels_map = {0: "T-Shirt",1: "Trouser",2: "Pullover",3: "Dress",4: "Coat",5: "Sandal",6: "Shirt",7: "Sneaker",8: "Bag",9: "Ankle Boot",
}
figure = plt.figure(figsize=(8, 8))
cols, rows = 3, 3
for i in range(1, cols * rows + 1):sample_idx = torch.randint(len(training_data), size=(1,)).item()img, label = training_data[sample_idx]figure.add_subplot(rows, cols, i)plt.title(labels_map[label])plt.axis("off")plt.imshow(img.squeeze(), cmap="gray")
plt.show()

Out:
在这里插入图片描述

Creating a Custom Dataset for your files 为您的文件创建自定义数据集

自定义 Dataset 类必须实现三个函数:__init____len____getitem__。看看这个实现:FashionMNIST 图像存储在目录img_dir中,它们的标签单独存储在CSV 文件annotations_file中。

在接下来的部分中,我们将详细介绍每个函数中实现的功能。

import os
import pandas as pd
from torchvision.io import read_imageclass CustomImageDataset(Dataset):def __init__(self, annotations_file, img_dir, transform=None, target_transform=None):self.img_labels = pd.read_csv(annotations_file)self.img_dir = img_dirself.transform = transformself.target_transform = target_transformdef __len__(self):return len(self.img_labels)def __getitem__(self, idx):img_path = os.path.join(self.img_dir, self.img_labels.iloc[idx, 0])image = read_image(img_path)label = self.img_labels.iloc[idx, 1]if self.transform:image = self.transform(image)if self.target_transform:label = self.target_transform(label)return image, label

_init_

__init__ 函数在实例化 Dataset 对象时运行一次。我们初始化包含图像、注释文件和两种转换的目录(下一节将更详细地介绍)。

tshirt1.jpg, 0
tshirt2.jpg, 0
......
ankleboot999.jpg, 9
def __init__(self, annotations_file, img_dir, transform=None, target_transform=None):self.img_labels = pd.read_csv(annotations_file)self.img_dir = img_dirself.transform = transformself.target_transform = target_transform

_len_

__len__ 函数返回数据集中的样本数。

例子:

def __len__(self):return len(self.img_labels)

_getitem_

__getitem__ 函数从数据集加载并返回给定索引idx的的样本。基于索引,它识别图像在磁盘上的位置,使用read_image 将其转换为张量,从 self.img_labels中的 csv 数据中检索相应的标签,调用它们的转换函数(如果适用),并以元组方式返回张量图像和相应的标签。

def __getitem__(self, idx):img_path = os.path.join(self.img_dir, self.img_labels.iloc[idx, 0])image = read_image(img_path)label = self.img_labels.iloc[idx, 1]if self.transform:image = self.transform(image)if self.target_transform:label = self.target_transform(label)return image, label

Preparing your data for training with DataLoaders 使用 DataLoaders 准备数据以进行训练

Dataset检索我们的数据集中一个样本的特征和标签。在训练模型时,我们通常希望以 “minibatches”方式传递样本,在每个epcoch重新整理数据以减少模型过度拟合,并使用 Python的multiprocessing来加速数据检索。

在机器学习中,您需要指定数据集中的特征和标签。输入特征,输出标签。我们训练特征,然后训练模型来预测标签。

  • 特征是图像像素中的图案
  • 标签是我们的 10 类类型:T 恤、凉鞋、连衣裙等

DataLoader是一个可迭代对象,它通过一个简单的 API 为我们抽象了这种复杂性。要使用 Dataloader,我们需要设置以下参数:

  • data 将用于训练模型的训练数据,以及评估模型的测试数据
  • batch size 每批中要处理的记录数
  • shuffle 按索引随机抽取数据样本
from torch.utils.data import DataLoadertrain_dataloader = DataLoader(training_data, batch_size=64, shuffle=True)
test_dataloader = DataLoader(test_data, batch_size=64, shuffle=True)

Iterate through the DataLoader 遍历 DataLoader

我们已将该数据集加载到 DataLoader 中,并且可以根据需要迭代数据集。下面的每次迭代都会返回一批train_featurestrain_labelsbatch_size=64分别包含特征和标签)。因为我们指定了shuffle=True,所以在迭代所有批次后,数据将被打乱(为了更细粒度地控制数据加载顺序,请查看Samplers)。

# Display image and label.
train_features, train_labels = next(iter(train_dataloader))
print(f"Feature batch shape: {train_features.size()}")
print(f"Labels batch shape: {train_labels.size()}")
img = train_features[0].squeeze()
label = train_labels[0]
plt.imshow(img, cmap="gray")
plt.show()
label_name = list(labels_map.values())[label]
print(f"Label: {label_name}")

在这里插入图片描述

Feature batch shape: torch.Size([64, 1, 28, 28])
Labels batch shape: torch.Size([64])
Label: Ankle Boot

Normalization 正则化

正则化是一种常见的数据预处理技术,用于缩放或转换数据,以确保每个特征的学习贡献相等。例如,灰度图像中的每个像素的值在0到255之间,这是特征。如果一个像素值为17,另一个像素为197。就会出现像素重要性分布不均匀的情况,因为较高的像素量会使学习发生偏差。正则化会改变数据的范围,而不会扭曲其特征之间的区别。进行这种预处理是为了避免:

  • 预测精度降低
  • 模型学习困难
  • 特征数据范围的不利分布

Transforms 转换

数据并不总是以训练机器学习算法所需的最终处理形式出现。我们使用transforms来操作数据并使其适合训练。

所有 TorchVision 数据集都有两个参数(transform 用于修改特征,target_transform 用于修改标签),它们接受包含转换逻辑的可调用对象。 torchvision.transforms 模块提供了几种开箱即用的常用转换。

FashionMNIST特征采用PIL图像格式,标签为整数。对于训练,我们需要将特征作为归一化张量,将标签作为单热编码张量。为了进行这些转换,我们将使用 ToTensorLambda

from torchvision import datasets
from torchvision.transforms import ToTensor, Lambdads = datasets.FashionMNIST(root="data",train=True,download=True,transform=ToTensor(),target_transform=Lambda(lambda y: torch.zeros(10, dtype=torch.float).scatter_(0, torch.tensor(y), value=1))
)

ToTensor()

ToTensor 将 PIL 图像或 NumPy ndarray 转换为 FloatTensor 并将图像的像素强度值缩放到 [0., 1.]范围。

Lambda transforms

Lambda transforms 应用任何用户定义的 lambda 函数。在这里,我们定义一个函数将整数转换为 one-hot 编码张量。它首先创建一个大小为 10(数据集中的标签数量)的零张量,并调用 scatter,它在标签 y 给定的索引上分配 value=1。您还可以使用 torch.nn.function.one_hot 作为另一个选项来执行此操作。

知识检查

1.PyTorch DataSet 和 PyTorch DataLoader 之间有什么区别

DataSet 按设计用于检索单个数据项,而 DataLoader 按设计用于处理批量数据。

2.PyTorch 中的转换旨在:

对数据执行某些操作,使其适用于训练。

Further Reading 进一步阅读

  • torch.utils.data API

References 参考文献

使用 PyTorch 进行机器学习的简介 - Training | Microsoft Learn

使用 PyTorch 进行机器学习的简介 - Training | Microsoft Learn

Github

storm-ice/PyTorch_Fundamentals

storm-ice/PyTorch_Fundamentals

这篇关于【PyTorch简介】3.Loading and normalizing datasets 加载和规范化数据集的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/607264

相关文章

详谈redis跟数据库的数据同步问题

《详谈redis跟数据库的数据同步问题》文章讨论了在Redis和数据库数据一致性问题上的解决方案,主要比较了先更新Redis缓存再更新数据库和先更新数据库再更新Redis缓存两种方案,文章指出,删除R... 目录一、Redis 数据库数据一致性的解决方案1.1、更新Redis缓存、删除Redis缓存的区别二

Redis事务与数据持久化方式

《Redis事务与数据持久化方式》该文档主要介绍了Redis事务和持久化机制,事务通过将多个命令打包执行,而持久化则通过快照(RDB)和追加式文件(AOF)两种方式将内存数据保存到磁盘,以防止数据丢失... 目录一、Redis 事务1.1 事务本质1.2 数据库事务与redis事务1.2.1 数据库事务1.

最好用的WPF加载动画功能

《最好用的WPF加载动画功能》当开发应用程序时,提供良好的用户体验(UX)是至关重要的,加载动画作为一种有效的沟通工具,它不仅能告知用户系统正在工作,还能够通过视觉上的吸引力来增强整体用户体验,本文给... 目录前言需求分析高级用法综合案例总结最后前言当开发应用程序时,提供良好的用户体验(UX)是至关重要

Oracle Expdp按条件导出指定表数据的方法实例

《OracleExpdp按条件导出指定表数据的方法实例》:本文主要介绍Oracle的expdp数据泵方式导出特定机构和时间范围的数据,并通过parfile文件进行条件限制和配置,文中通过代码介绍... 目录1.场景描述 2.方案分析3.实验验证 3.1 parfile文件3.2 expdp命令导出4.总结

更改docker默认数据目录的方法步骤

《更改docker默认数据目录的方法步骤》本文主要介绍了更改docker默认数据目录的方法步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录1.查看docker是否存在并停止该服务2.挂载镜像并安装rsync便于备份3.取消挂载备份和迁

不删数据还能合并磁盘? 让电脑C盘D盘合并并保留数据的技巧

《不删数据还能合并磁盘?让电脑C盘D盘合并并保留数据的技巧》在Windows操作系统中,合并C盘和D盘是一个相对复杂的任务,尤其是当你不希望删除其中的数据时,幸运的是,有几种方法可以实现这一目标且在... 在电脑生产时,制造商常为C盘分配较小的磁盘空间,以确保软件在运行过程中不会出现磁盘空间不足的问题。但在

Java如何接收并解析HL7协议数据

《Java如何接收并解析HL7协议数据》文章主要介绍了HL7协议及其在医疗行业中的应用,详细描述了如何配置环境、接收和解析数据,以及与前端进行交互的实现方法,文章还分享了使用7Edit工具进行调试的经... 目录一、前言二、正文1、环境配置2、数据接收:HL7Monitor3、数据解析:HL7Busines

Mybatis拦截器如何实现数据权限过滤

《Mybatis拦截器如何实现数据权限过滤》本文介绍了MyBatis拦截器的使用,通过实现Interceptor接口对SQL进行处理,实现数据权限过滤功能,通过在本地线程变量中存储数据权限相关信息,并... 目录背景基础知识MyBATis 拦截器介绍代码实战总结背景现在的项目负责人去年年底离职,导致前期规

Redis KEYS查询大批量数据替代方案

《RedisKEYS查询大批量数据替代方案》在使用Redis时,KEYS命令虽然简单直接,但其全表扫描的特性在处理大规模数据时会导致性能问题,甚至可能阻塞Redis服务,本文将介绍SCAN命令、有序... 目录前言KEYS命令问题背景替代方案1.使用 SCAN 命令2. 使用有序集合(Sorted Set)

SpringBoot整合Canal+RabbitMQ监听数据变更详解

《SpringBoot整合Canal+RabbitMQ监听数据变更详解》在现代分布式系统中,实时获取数据库的变更信息是一个常见的需求,本文将介绍SpringBoot如何通过整合Canal和Rabbit... 目录需求步骤环境搭建整合SpringBoot与Canal实现客户端Canal整合RabbitMQSp