本文主要是介绍6、TORCH.BACKENDS,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
torch.backends 控制 PyTorch 支持的各种后端的行为。
这些后端包括:
-
torch.backends.cuda
-
torch.backends.cudnn
-
torch.backends.mkl
-
torch.backends.mkldnn
-
torch.backends.openmp
torch.backends.cuda
torch.backends.cuda.
is_built
()
返回 PyTorch 是否使用 CUDA 支持构建。 请注意,这并不一定意味着 CUDA 可用; 只是如果这个 PyTorch 二进制文件在一台带有工作 CUDA 驱动程序和设备的机器上运行,我们将能够使用它。
torch.backends.cuda.matmul.
allow_tf32
控制 TensorFloat-32 张量核心是否可用于 Ampere 或更新 GPU 上的矩阵乘法的布尔值。 请参阅安培设备上的 TensorFloat-32(TF32)。
torch.backends.cuda.
cufft_plan_cache
cufft_plan_cache 缓存 cuFFT 计划
size
一个只读整数,显示当前在 cuFFT 计划缓存中的计划数。
max_size
控制 cuFFT 计划的缓存容量的 int。
clear
()
Clears the cuFFT plan cache.
torch.backends.cudnn
torch.backends.cudnn.
version
()
返回 cuDNN 的版本
torch.backends.cudnn.
is_available
()
返回一个布尔值,指示 CUDNN 当前是否可用。
torch.backends.cudnn.
enabled
控制是否启用 cuDNN 的布尔值。
torch.backends.cudnn.
allow_tf32
控制 TensorFloat-32 张量核心在 Ampere 或更新 GPU 上的 cuDNN 卷积中可以使用的位置的布尔值。 请参阅安培设备上的 TensorFloat-32(TF32)。
torch.backends.cudnn.
deterministic
一个布尔值,如果为 True,则导致 cuDNN 仅使用确定性卷积算法。另请参阅 torch.are_deterministic_algorithms_enabled() 和 torch.use_deterministic_algorithms()。
torch.backends.cudnn.
benchmark
一个布尔值,如果为 True,则导致 cuDNN 对多个卷积算法进行基准测试并选择最快的。
torch.backends.mkl
torch.backends.mkl.
is_available
()
返回 PyTorch 是否使用 MKL 支持构建。
torch.backends.mkldnn
torch.backends.mkldnn.
is_available
()
返回 PyTorch 是否使用 MKL-DNN 支持构建。
torch.backends.openmp
torch.backends.openmp.
is_available
()
返回 PyTorch 是否使用 OpenMP 支持构建。
这篇关于6、TORCH.BACKENDS的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!