CUDA cuDNN Installbook by Eric

2024-01-22 11:18
文章标签 cuda cudnn eric installbook

本文主要是介绍CUDA cuDNN Installbook by Eric,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

  • 1. 致谢
  • 2. CUDA安装步骤
    • 2.1 使用conda安装nvcc编译器
    • 2.2 使用conda安装 cuda_runtime_cpp
    • 2.3 使用Ubuntu系统命令安装
  • 3 CuDNN安装
    • 3.1 Conda安装
    • 3.2 官方安装文档
      • 3.2.1 在页面中没有找到对应Ubuntu版本的`.deb`安装包
    • 3.3 测试cuDNN是否安装成功
  • 4. [NCCL](https://developer.nvidia.com/nccl/nccl-download)安装
    • 判断是否成功安装NCCL
  • 5 PyTorch验证CUDA和cuDNN是否安装成功
  • 5 第二版本或以前版本的CUDA安装
    • 5.1 查看系统当前CUDA版本
    • 5.2 查看已安装的CUDA版本
    • 5.3 安装第二个版本CUDA
    • 5.4 配置CUDA的环境变量
    • 5.5 CUDA版本的切换
  • 7 卸载旧版本的CUDA
  • 8 获取NVIDIA支持

1. 致谢

感谢网友撸起袖子就去干和FlyWine分享的经验,
原文链接如下:
https://blog.csdn.net/wanzhen4330/article/details/81699769
https://blog.csdn.net/wf19930209/article/details/81879514

2. CUDA安装步骤

step 1:首先我们需要查看合适的CUDA版本,在PyTorch的官网Start-Locally | PyTorch进行查看;然后选择当前主版本(11.x)相同的最新子版本(11.newest)的CUDA,作为预选的CUDA版本;
step 2:查看与当前CUDA适配的驱动版本,来判断是否需要重新安装驱动,
Release Notes :: CUDA — CUDA Toolkit and Compatible Driver Versions
查看GPU驱动版本:nvidia-smi
。。。
step 4:安装命令就使用CUDA网站提供的安装命令,如图所示:
在这里插入图片描述
step 5: 如果在安装CUDA之前,安装了显卡驱动,则这里选择不安装驱动
step 6: 根据CUDA安装后的提示信息说到,我们还需要配置环境变量,

提示信息:
Please make sure that

  • PATH includes /usr/local/cuda-10.2/bin
  • LD_LIBRARY_PATH includes /usr/local/cuda-10.2/lib64, or, add /usr/local/cuda-10.2/lib64 to /etc/ld.so.conf and run ldconfig as root

需要通过修改CUDA提供的一个脚本文件来实现,即主目录下的.bashrc文件,
我们将.bashrc文件用文本编辑器打开,使用命令,

sudo gedit ~/.bashrc

并在最后加入如下格式的代码:

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda/lib64
export PATH=$PATH:/usr/local/cuda/bin
export CUDA_HOME=$CUDA_HOME:/usr/local/cuda

修改完成后保存文件,然后关闭所有终端重启即可,(重启之后脚本会自动地执行,从而完成环境变量的配置);

2.1 使用conda安装nvcc编译器

首先需要在Conda官网上查询合适package,关键词:CUDA
经测试,cuda-nvcc库提供了nvcc编译器程序,(安装后可以使用nvcc -V来验证),关键词:

CUDA nvcc

具体来说,这里我们选择的是Nvidia官方提供的编译库:nvidia / packages / cuda-nvcc

2.2 使用conda安装 cuda_runtime_cpp

对于无法找到cuda_runtime.h头文件的问题,
解决方案:
使用conda安装cuda-cudart-dev包,安装 cuda_runtime 的C++函数库,包括cuda_runtime.h头文件;
具体的安装命令请参考Nvidia官方conda源:nvidia / packages / cuda-cudart-dev

Note
以下cuda包均可适用:

  1. cuda-cudart-dev
  2. cuda-libraries-dev

2.3 使用Ubuntu系统命令安装

sudo apt install nvidia-cuda-toolkit

如果需要安装驱动,也可以直接使用Ubuntu系统的驱动更新功能;

3 CuDNN安装

3.1 Conda安装

conda install -c conda-forge cudnn=cudnn_version

3.2 官方安装文档

官网安装教程:cuDNN Installation Guide :: 2.3. Installing cuDNN On Linux
官方下载网站:[cuDNN Archive | NVIDIA Developer]

3.2.1 在页面中没有找到对应Ubuntu版本的.deb安装包

如果在页面中没有找到对应Ubuntu版本的.deb安装包,说明NVIDIA官方目前并没有开放当前系统的编译版本,此时需要更改Ubuntu的系统版本;

3.3 测试cuDNN是否安装成功

接下来我们来验证cuDNN是否安装成功:
验证方法来自于NVIDIA官方文档《NVIDIA CUDNN DOCUMENTATION》
step 1: 将cuDNN的测试样例复制到一个可写的文件夹中,官方指南中是用cp命令实现的,(而我自己会在主目录下新建一个test文件夹专门作为测试文件夹),用来进行测试,所以需要对提供的shell命令进行修改:

cp -r /usr/src/cudnn_samples_v8/ $HOME

我们把目的路径修改为自己想要的文件夹,
我这里设置成我的测试文件夹test,即/home/songyuc/test
于是修改为:

cp -r /usr/src/cudnn_samples_v8/ /home/songyuc/test

v8:v8这里是版本号,需要根据当前的cuDNN版本进行修改;
step 2: 进入到这个样例代码的文件夹,官方指南里面用的是cd命令,这里由于我用的是图形界面,于是是直接打开的,然后右键打开终端,需要执行的样例代码的路径为/home/songyuc/test/cudnn_samples_v8/mnistCUDNN

4. NCCL安装

点击【O/S agnostic local installer】下载安装包;

判断是否成功安装NCCL

ldconfig -p | grep nccl

5 PyTorch验证CUDA和cuDNN是否安装成功

请参考博文《PyTorch下 CUDA 和 CuDNN 安装验证程序》

# 引入PyTorch
import torch# torch是否可以正常连接CUDA
print(torch.cuda.is_available())# torch是否可以正常连接cuDNN
from torch.backends import cudnn
print(cudnn.is_available())# 显示cuDNN版本
print(cudnn.version())
# 显示的是编译torch时使用的cuDNN版本号

5 第二版本或以前版本的CUDA安装

5.1 查看系统当前CUDA版本

想要查看系统当前的CUDA版本,使用命令:
nvcc -V
会得到下面的输出结果,
在这里插入图片描述
如果无法识别指令,则可能没有安装CUDA;

5.2 查看已安装的CUDA版本

step 1: 打开终端;
step 2: 输入cd /usr/local,打开local文件夹;
step 3: 使用ls命令查看已存在的文件内容,可以看到如示例图所示的结果,
在这里插入图片描述
可以看到这里出现了cuda-10.1和cuda-10.0的文件夹,所以是安装了这两个版本的CUDA;

5.3 安装第二个版本CUDA

step 1: 首先我们需要打开CUDA Toolkit Archive工具包官方网站,使用run方式进行安装,因为run方式我们可以进行配置;
step 2: 选择相应的CUDA版本后,按照官网的命令进行安装,即使用wget命令进行安装;
注意:在运行.run安装程序时,不要安装显卡驱动“Graphic Driver”;
step 3:安装完成后,使用nvcc -V查看当前的CUDA版本;

5.4 配置CUDA的环境变量

查看.bashrc文件内容

cat ~/.bashrc

给bash终端在预启动时添加环境变量

echo "export PATH=/usr/local/cuda-11.x/bin:$PATH" >> ~/.bashrc
echo "export LD_LIBRARY_PATH=/usr/local/cuda-11.x/lib64:$LD_LIBRARY_PATH" \
>> ~/.bashrc

5.5 CUDA版本的切换

使用如下的命令模板:

sudo rm -rf /usr/local/cuda
sudo ln -s /usr/local/cuda-**.* /usr/local/cuda

例如,将CUDA切换到10.1版本的命令为:

sudo rm -rf /usr/local/cuda
sudo ln -s /usr/local/cuda-10.1 /usr/local/cuda

切换版本后,如果出现问题,例如:

RuntimeError: cuda runtime error (804) : forward compatibility was attempted on non supported HW at /opt/conda/conda-bld/pytorch_1579022027550/work/aten/src/THC/THCGeneral.cpp:50

请重启后重新运行nvidia-smi

7 卸载旧版本的CUDA

关于卸载,CUDA在安装完成时给出了这样的提示:

To uninstall the CUDA Toolkit, run cuda-uninstaller in /usr/local/cuda-11.3/bin

卸载/usr目录中安装的CUDA-11.x

sudo ./cuda-uninstaller

卸载CUDA-10.0
CUDA Toolkit v10.0.130 – To uninstall a Toolkit runfile installation

8 获取NVIDIA支持

可以在NVIDIA的官网获得技术支持,https://www.nvidia.cn/support/

这篇关于CUDA cuDNN Installbook by Eric的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/632795

相关文章

PyInstaller问题解决 onnxruntime-gpu 使用GPU和CUDA加速模型推理

前言 在模型推理时,需要使用GPU加速,相关的CUDA和CUDNN安装好后,通过onnxruntime-gpu实现。 直接运行python程序是正常使用GPU的,如果使用PyInstaller将.py文件打包为.exe,发现只能使用CPU推理了。 本文分析这个问题和提供解决方案,供大家参考。 问题分析——找不到ONNX Runtime GPU 动态库 首先直接运行python程序

CUDA:用并行计算的方法对图像进行直方图均衡处理

(一)目的 将所学算法运用于图像处理中。 (二)内容 用并行计算的方法对图像进行直方图均衡处理。 要求: 利用直方图均衡算法处理lena_salt图像 版本1:CPU实现 版本2:GPU实现  实验步骤一 软件设计分析: 数据类型: 根据实验要求,本实验的数据类型为一个256*256*8的整型矩阵,其中元素的值为256*256个0-255的灰度值。 存储方式: 图像在内存中

ffmpeg安装测试(支持cuda支持SRT)

文章目录 背景安装ffmpeg直接下载可执行文件选择版本选择对应系统版本下载测试Linux下安装 查看支持协议以及编码格式 常见错误缺少 libmvec.so.1LD_LIBRARY_PATH 错误 GPU加速测试SRT服务器搭建下载srs5.0源码解压安装配置启动 SRT推流测试SRT播放测试 背景 在音视频开发测试中,FFmpeg是一个不可或缺的工具,它以其强大的音视频处理

torch.backends.cudnn.benchmark和torch.use_deterministic_algorithms总结学习记录

经常使用PyTorch框架的应该对于torch.backends.cudnn.benchmark和torch.use_deterministic_algorithms这两个语句并不陌生,在以往开发项目的时候可能专门化花时间去了解过,也可能只是浅尝辄止简单有关注过,正好今天再次遇到了就想着总结梳理一下。 torch.backends.cudnn.benchmark 是 PyTorch 中的一个设置

【FFMPEG】Install FFmpeg CUDA gltransition in Ubuntu

因为比较复杂,记录一下自己安装过程,方便后续查找,所有都是在docker环境安装cuda11.7的 **ffmpeg 4.2.2 nv-codec-headers-9.1.23.3 ** 手动下载安装吧 https://github.com/aperim/docker-nvidia-cuda-ffmpeg/blob/v0.1.10/ffmpeg/Dockerfile最好手动一个一个安装,错误跳

windows 机器学习 tensorflow-gpu +keras gpu环境的 相关驱动安装-CUDA,cuDNN。

本人真实实现的情况是: windows 10 tensorboard             1.8.0 tensorflow-gpu          1.8.0 pip install -i https://pypi.mirrors.ustc.edu.cn/simple/ tensorflow-gpu==1.8.0 Keras                   2.2.4 pip

CUDA与TensorRT学习三:TensorRT基础入门

文章目录 一、TensorRT概述二、TensorRT应用场景三、TensorRT模块四、导出并分析ONNX五、剖析ONNX架构并理解Protobuf六、ONNX注册算子的方法七、快速分析开源代码并导出ONNX八、使用trtexec九、trtexec log分析 一、TensorRT概述 二、TensorRT应用场景 三、TensorRT模块 四、导出并分析ONNX 五、

【并行计算】CUDA基础

cuda程序的后缀:.cu 编译:nvcc hello_world.cu 执行:./hello_world.cu 使用语言还是C++。 1. 核函数 __global__ void add(int *a, int *b, int *c) {*c = *a + *b;} 核函数只能访问GPU的内存。也就是显存。CPU的存储它是碰不到的。 并且核函数不能使用变长参数、静态变量、函数指

GPU环境配置:1.CUDA、Anaconda、Pytorch

一、查看显卡适配CUDA型号         查看自己电脑的显卡版本:         在 Windows 设置中查看显卡型号:使用 Windows + I 快捷键打开「设置」,依次点击「系统」-「屏幕」和「高级显示器设置」,在「显示器 1」旁边就可以看到显卡名称。        右键点菜单图标,选择系统,查看自己的Windows版本        右键菜单,设备管理器,点开“显示