6、TORCH.BACKENDS

2024-08-26 23:48
文章标签 torch backends

本文主要是介绍6、TORCH.BACKENDS,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

torch.backends 控制 PyTorch 支持的各种后端的行为。

这些后端包括:

  • torch.backends.cuda

  • torch.backends.cudnn

  • torch.backends.mkl

  • torch.backends.mkldnn

  • torch.backends.openmp

torch.backends.cuda

torch.backends.cuda.is_built()

返回 PyTorch 是否使用 CUDA 支持构建。 请注意,这并不一定意味着 CUDA 可用; 只是如果这个 PyTorch 二进制文件在一台带有工作 CUDA 驱动程序和设备的机器上运行,我们将能够使用它。

torch.backends.cuda.matmul.allow_tf32

控制 TensorFloat-32 张量核心是否可用于 Ampere 或更新 GPU 上的矩阵乘法的布尔值。 请参阅安培设备上的 TensorFloat-32(TF32)。

torch.backends.cuda.cufft_plan_cache

cufft_plan_cache 缓存 cuFFT 计划

size

一个只读整数,显示当前在 cuFFT 计划缓存中的计划数。

max_size

控制 cuFFT 计划的缓存容量的 int。

clear()

Clears the cuFFT plan cache.

torch.backends.cudnn

torch.backends.cudnn.version()

返回 cuDNN 的版本

torch.backends.cudnn.is_available()

返回一个布尔值,指示 CUDNN 当前是否可用。

torch.backends.cudnn.enabled

控制是否启用 cuDNN 的布尔值。

torch.backends.cudnn.allow_tf32

控制 TensorFloat-32 张量核心在 Ampere 或更新 GPU 上的 cuDNN 卷积中可以使用的位置的布尔值。 请参阅安培设备上的 TensorFloat-32(TF32)。

torch.backends.cudnn.deterministic

一个布尔值,如果为 True,则导致 cuDNN 仅使用确定性卷积算法。另请参阅 torch.are_deterministic_algorithms_enabled() 和 torch.use_deterministic_algorithms()。

torch.backends.cudnn.benchmark

一个布尔值,如果为 True,则导致 cuDNN 对多个卷积算法进行基准测试并选择最快的。

torch.backends.mkl

torch.backends.mkl.is_available()

返回 PyTorch 是否使用 MKL 支持构建。

torch.backends.mkldnn

torch.backends.mkldnn.is_available()

返回 PyTorch 是否使用 MKL-DNN 支持构建。

torch.backends.openmp

torch.backends.openmp.is_available()

返回 PyTorch 是否使用 OpenMP 支持构建。

 

 

 

这篇关于6、TORCH.BACKENDS的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1110034

相关文章

pytorch torch.nn.functional.one_hot函数介绍

torch.nn.functional.one_hot 是 PyTorch 中用于生成独热编码(one-hot encoding)张量的函数。独热编码是一种常用的编码方式,特别适用于分类任务或对离散的类别标签进行处理。该函数将整数张量的每个元素转换为一个独热向量。 函数签名 torch.nn.functional.one_hot(tensor, num_classes=-1) 参数 t

torch.nn 与 torch.nn.functional的区别?

区别 PyTorch中torch.nn与torch.nn.functional的区别是:1.继承方式不同;2.可训练参数不同;3.实现方式不同;4.调用方式不同。 1.继承方式不同 torch.nn 中的模块大多数是通过继承torch.nn.Module 类来实现的,这些模块都是Python 类,需要进行实例化才能使用。而torch.nn.functional 中的函数是直接调用的,无需

torch.backends.cudnn.benchmark和torch.use_deterministic_algorithms总结学习记录

经常使用PyTorch框架的应该对于torch.backends.cudnn.benchmark和torch.use_deterministic_algorithms这两个语句并不陌生,在以往开发项目的时候可能专门化花时间去了解过,也可能只是浅尝辄止简单有关注过,正好今天再次遇到了就想着总结梳理一下。 torch.backends.cudnn.benchmark 是 PyTorch 中的一个设置

【稀疏矩阵】使用torch.sparse模块

文章目录 稀疏矩阵的格式coocsrcsc Construction of Sparse COO tensorsConstruction of CSR tensorsLinear Algebra operations(稀疏与稠密之间混合运算)Tensor methods and sparse(与稀疏有关的tensor成员函数)coo张量可用的tensor成员函数(经实测,csr也有一些可以用

【PyTorch】深入解析 `with torch.no_grad():` 的高效用法

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 文章目录 引言一、`with torch.no_grad():` 的作用二、`with torch.no_grad():` 的原理三、`with torch.no_grad():` 的高效用法3.1 模型评估3.2 模型推理3.3

【PyTorch常用库函数】torch.add():张量的加法操作

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 文章目录 前言一 、torch.add()函数的基本用法二、示例演示示例1:两个相同形状的一维张量相加示例2:两个不同形状的一维张量相加(错误示例)示例3:使用alpha参数进行加权加法 结尾 前言 PyTorch作为一

PyTorch常用库函数:torch.acos()的详解实战使用

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 文章目录 引言一、函数简介1.2 函数语法1.3 参数说明 二、 示例代码2.1 注意事项 总结 引言 PyTorch 是一个流行的深度学习框架,它提供了丰富的库函数,用于处理张量(多维数组)的各种操作。在科学计算和深度

【pytorch】torch、torchaudio、torchvision版本对应关系

在官网查询版本对应关系 https://pytorch.org/get-started/previous-versions/

【Python报错已解决】“ModuleNotFoundError: No module named ‘torch_scatter‘”

🎬 鸽芷咕:个人主页  🔥 个人专栏: 《C++干货基地》《粉丝福利》 ⛺️生活的理想,就是为了理想的生活! 文章目录 引言:一、问题描述1.1 报错示例:1.2 报错分析:1.3 解决思路: 二、解决方法2.1 方法一:使用pip安装torch_scatter2.2 步骤二:使用conda安装torch_scatter(如果适用) 三、其