1、TORCH.TENSOR

2024-08-26 23:48
文章标签 torch tensor

本文主要是介绍1、TORCH.TENSOR,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

torch.Tensor 是一个多维矩阵,包含单一数据类型的元素。

Data types

Torch 定义了 10 种具有 CPU 和 GPU 变体的张量类型,如下所示:

Data type

dtype

CPU tensor

GPU tensor

32-bit floating point

torch.float32 or torch.float

torch.FloatTensor

torch.cuda.FloatTensor

64-bit floating point

torch.float64 or torch.double

torch.DoubleTensor

torch.cuda.DoubleTensor

16-bit floating point 1

torch.float16 or torch.half

torch.HalfTensor

torch.cuda.HalfTensor

16-bit floating point 2

torch.bfloat16

torch.BFloat16Tensor

torch.cuda.BFloat16Tensor

32-bit complex

torch.complex32

  

64-bit complex

torch.complex64

  

128-bit complex

torch.complex128 or torch.cdouble

  

8-bit integer (unsigned)

torch.uint8

torch.ByteTensor

torch.cuda.ByteTensor

8-bit integer (signed)

torch.int8

torch.CharTensor

torch.cuda.CharTensor

16-bit integer (signed)

torch.int16 or torch.short

torch.ShortTensor

torch.cuda.ShortTensor

32-bit integer (signed)

torch.int32 or torch.int

torch.IntTensor

torch.cuda.IntTensor

64-bit integer (signed)

torch.int64 or torch.long

torch.LongTensor

torch.cuda.LongTensor

Boolean

torch.bool

torch.BoolTensor

torch.cuda.BoolTensor

quantized 8-bit integer (unsigned)

torch.quint8

torch.ByteTensor

/

quantized 8-bit integer (signed)

torch.qint8

torch.CharTensor

/

quantized 32-bit integer (signed)

torch.qfint32

torch.IntTensor

/

quantized 4-bit integer (unsigned) 3

torch.quint4x2

torch.ByteTensor

/

1.有时称为 binary16:使用 1 个符号、5 个指数和 10 个有效位。 当精度以牺牲范围为代价很重要时很有用。

2.有时称为脑浮点:使用 1 个符号、8 个指数和 7 个有效位。 当范围很重要时很有用,因为它具有与 float32 相同数量的指数位。

3.量化的 4 位整数存储为 8 位有符号整数。 目前只支持 EmbeddingBag 操作符。

torch.Tensor 是默认张量类型(torch.FloatTensor)的别名。

Initializing and basic operations

可以使用 torch.tensor() 构造函数从 Python 列表或序列构造张量:

>>> torch.tensor([[1., -1.], [1., -1.]])
tensor([[ 1.0000, -1.0000],[ 1.0000, -1.0000]])
>>> torch.tensor(np.array([[1, 2, 3], [4, 5, 6]]))
tensor([[ 1,  2,  3],[ 4,  5,  6]])

WARNING:torch.tensor() 总是复制数据。 如果您有张量数据并且只想更改其 requires_grad 标志,请使用 requires_grad_() 或 detach() 以避免复制。 如果您有一个 numpy 数组并希望避免复制,请使用 torch.as_tensor()。

可以通过将 torch.dtype 和/或 torch.device 传递给构造函数或张量创建操作来构造特定数据类型的张量:

>>> torch.zeros([2, 4], dtype=torch.int32)
tensor([[ 0,  0,  0,  0],[ 0,  0,  0,  0]], dtype=torch.int32)
>>> cuda0 = torch.device('cuda:0')
>>> torch.ones([2, 4], dtype=torch.float64, device=cuda0)
tensor([[ 1.0000,  1.0000,  1.0000,  1.0000],[ 1.0000,  1.0000,  1.0000,  1.0000]], dtype=torch.float64, device='cuda:0')

有关构建张量的更多信息,请参阅创建操作

可以使用 Python 的索引和切片符号访问和修改张量的内容:

>>> x = torch.tensor([[1, 2, 3], [4, 5, 6]])
>>> print(x[1][2])
tensor(6)
>>> x[0][1] = 8
>>> print(x)
tensor([[ 1,  8,  3],[ 4,  5,  6]])

使用 torch.Tensor.item() 从包含单个值的张量中获取 Python 数字:

>>> x = torch.tensor([[1]])
>>> x
tensor([[ 1]])
>>> x.item()
1
>>> x = torch.tensor(2.5)
>>> x
tensor(2.5000)
>>> x.item()
2.5

有关索引的更多信息,请参阅索引、切片、连接、变异操作。

可以使用 requires_grad=True 创建张量,以便 torch.autograd 记录对它们的操作以进行自动微分。

>>> x = torch.tensor([[1., -1.], [1., 1.]], requires_grad=True)
>>> out = x.pow(2).sum()
>>> out.backward()
>>> x.grad
tensor([[ 2.0000, -2.0000],[ 2.0000,  2.0000]])

每个张量都有一个关联的 torch.Storage,它保存着它的数据。 张量类还提供存储的多维跨步视图,并在其上定义数字操作。

有关张量视图的更多信息,请参阅Tensor Views。

有关 torch.Tensor 的 torch.dtype、torch.device 和 torch.layout 属性的更多信息,请参阅 Tensor Attributes。

改变张量的方法用下划线后缀标记。 例如, torch.FloatTensor.abs_() 就地计算绝对值并返回修改后的张量,而 torch.FloatTensor.abs() 在新张量中计算结果。

要更改现有张量的 torch.device 和/或 torch.dtype,请考虑在张量上使用 to() 方法。

WARNING:torch.Tensor 的当前实现引入了内存开销,因此它可能会导致在具有许多小张量的应用程序中意外高内存使用。 如果是这种情况,请考虑使用一种大型结构。

Tensor class reference

CLASStorch.Tensor

根据您的用例,有几种主要的方法可以创建张量。

.要使用预先存在的数据创建张量,请使用 torch.tensor()。

.要创建具有特定大小的张量,请使用 torch.* 张量创建操作(请参阅Creation Ops)。

.要创建与另一个张量具有相同大小(和相似类型)的张量,请使用 torch.*_like 张量创建操作(请参阅创建操作)。

.要创建与另一个张量类型相似但大小不同的张量,请使用 tensor.new_* 创建操作。

Tensor.T

这个张量的维度是否颠倒了。

如果 n 是 x 中的维数,则 x.T 等效于 x.permute(n-1, n-2, ..., 0)。

 

这篇关于1、TORCH.TENSOR的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1110029

相关文章

pytorch torch.nn.functional.one_hot函数介绍

torch.nn.functional.one_hot 是 PyTorch 中用于生成独热编码(one-hot encoding)张量的函数。独热编码是一种常用的编码方式,特别适用于分类任务或对离散的类别标签进行处理。该函数将整数张量的每个元素转换为一个独热向量。 函数签名 torch.nn.functional.one_hot(tensor, num_classes=-1) 参数 t

torch.nn 与 torch.nn.functional的区别?

区别 PyTorch中torch.nn与torch.nn.functional的区别是:1.继承方式不同;2.可训练参数不同;3.实现方式不同;4.调用方式不同。 1.继承方式不同 torch.nn 中的模块大多数是通过继承torch.nn.Module 类来实现的,这些模块都是Python 类,需要进行实例化才能使用。而torch.nn.functional 中的函数是直接调用的,无需

torch.backends.cudnn.benchmark和torch.use_deterministic_algorithms总结学习记录

经常使用PyTorch框架的应该对于torch.backends.cudnn.benchmark和torch.use_deterministic_algorithms这两个语句并不陌生,在以往开发项目的时候可能专门化花时间去了解过,也可能只是浅尝辄止简单有关注过,正好今天再次遇到了就想着总结梳理一下。 torch.backends.cudnn.benchmark 是 PyTorch 中的一个设置

Mindspore 初学教程 - 3. Tensor 张量

张量(Tensor)是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在  n n n 维空间内,有  n r n^{r} nr 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。 r r r 称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 张量是一种特殊的数据结构,

【稀疏矩阵】使用torch.sparse模块

文章目录 稀疏矩阵的格式coocsrcsc Construction of Sparse COO tensorsConstruction of CSR tensorsLinear Algebra operations(稀疏与稠密之间混合运算)Tensor methods and sparse(与稀疏有关的tensor成员函数)coo张量可用的tensor成员函数(经实测,csr也有一些可以用

【PyTorch】深入解析 `with torch.no_grad():` 的高效用法

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 文章目录 引言一、`with torch.no_grad():` 的作用二、`with torch.no_grad():` 的原理三、`with torch.no_grad():` 的高效用法3.1 模型评估3.2 模型推理3.3

【PyTorch常用库函数】torch.add():张量的加法操作

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 文章目录 前言一 、torch.add()函数的基本用法二、示例演示示例1:两个相同形状的一维张量相加示例2:两个不同形状的一维张量相加(错误示例)示例3:使用alpha参数进行加权加法 结尾 前言 PyTorch作为一

PyTorch常用库函数:torch.acos()的详解实战使用

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 文章目录 引言一、函数简介1.2 函数语法1.3 参数说明 二、 示例代码2.1 注意事项 总结 引言 PyTorch 是一个流行的深度学习框架,它提供了丰富的库函数,用于处理张量(多维数组)的各种操作。在科学计算和深度

【pytorch】torch、torchaudio、torchvision版本对应关系

在官网查询版本对应关系 https://pytorch.org/get-started/previous-versions/