本文主要是介绍以titan rtx为例 在ubuntu server上部署cuda+cudnn+anaconda,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
之前经常自己搭anaconda,在linux和windows上搭过。上个月给实验室服务器搭环境供大家使用,想着总结一下吧,省得以后再到处找。。。
先装个ubuntu server 然后改网络配置
ubuntu server18把网络配置变了,网上也能查到 静态配置在
/etc/netplan/50-cloud-init.yaml
配置好网络了,我们开始装显卡驱动
显卡驱动要去nvidia官网找最好
先禁用Nouveau驱动
sudo apt-get updatesudo gedit /etc/modprobe.d/blacklist.conf
在文件最下面添加:
blacklist nouveau
执行:
sudo update-initramfs -u
然后reboot,重启之后看看是否禁用成功
lsmod |grep nouv*
去nvidia官网找到linux版本的驱动,下载下来的是.sh的文件,执行即可
安装好后用指令验证
nvidia-smi
去官网下载cuda对应版本,也是.sh文件,执行即可
安装的时候把driver选项去掉,因为我们已经装过驱动了
安装好后开始改环境变量:
~/.bashrc里添加
export PATH=/usr/local/cuda-10.1/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-10.1/lib64:$LD_LIBRARY_PATH
然后保存,执行使其生效
source ~/.bashrc
cudnn需要找到对应cuda版本的去下载
解压后,进行一些复制操作(本质上跟windows差不多,替换一些cuda的文件):
#在解压出来的路径中寻找对应文件夹
sudo cp /include/cudnn.h /usr/local/cuda/include/
sudo cp lib* /usr/local/cuda/lib64/#设置权限
sudo chmod a+r /usr/local/cuda/include/cudnn.h
sudo chmod a+r /usr/local/cuda/lib64/libcudnn*#更新软链接
cd /usr/local/cuda/lib64/
sudo rm -rf libcudnn.so libcudnn.so.7 #注意版本号,可在cudnn的lib64文件夹中查看
sudo ln -s libcudnn.so.7.6.2 libcudnn.so.7 #生成软衔接,也要注意版本号
sudo ln -s libcudnn.so.7 libcudnn.so
sudo ldconfig -v
nvcc -V测试即可
安装anaconda,在anaconda中新建环境,安装tensorflow,pytorch等
anaconda安装完也要修改环境变量
在base中安装了jupyter,在每个环境中安装ipykernel,然后:
/xxxx/envs/xxx/bin/python -m ipykernel install --name xxx
即可将该环境添加至jupyter的kernel中
jupyter的远程配置需要生成自己的密码的hash值,然后修改配置文件里的一系列配置即可
jupyter里面还有latex编译生成,这个坑以后再添
这篇关于以titan rtx为例 在ubuntu server上部署cuda+cudnn+anaconda的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!