UserWarning:NVIDIA GeForce RTX 3060 Laptop GPU with CUD.......warnings.warn(incompatible_device_warn

本文主要是介绍UserWarning:NVIDIA GeForce RTX 3060 Laptop GPU with CUD.......warnings.warn(incompatible_device_warn,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章目录

  • 问题描述
  • 问题分析与解决
  • 总结
  • 参考资料

问题描述

调试环境时,报 UserWarning:NVIDIA GeForce RTX 3060 Laptop GPU with CUD 的错误,如下图所示:

在这里插入图片描述

问题分析与解决

从报错可以看出是 3060 的显卡和当前的 cuda 版本不适配。
因此打算换cuda的版本(我真是玛卡巴卡,老是有这种项目和cuda版本不适配的问题)。
我的显卡是 3060,cuda版本是 cuda11.5,项目 pytorch 版本是 pytorch1.8.1,经过查找资料在一个评论区看到说是 cuda11.1 与pytorch1.8.1适配,于是开始卸载重装cuda,将pytorch 11.5降到11.1。
经过一通漫长的操作,总算是将cuda版本给降到了11.1。
在这里插入图片描述
集体卸载与重装cuda的方法可以参考 参考资料[1][2],很详细,这里就不多赘述了。
于是,小胡怀着激动的心情,再次运行项目。
嘿,您猜怎么着,还是报同样的错误,我真是想死!


于是乎转换思路,是不是 pytorch 的问题,于是在 conda 环境里查了下,如下图所示:
在这里插入图片描述

可以看到是基于cuda10.2 的,我真是再次玛卡巴卡,于是想把cuda版本再降到10.2,不但又经历一次更换版本的过程,还会对其他用 cuda11 的项目造成影响。(当然可以管理多个cuda版本切换,但是比较占用存储空间。)
突然又想到,既然已经装了 cuda11.1,能不能换一个与 pytorch1.8.1 相近的,使用 cuda11.1 的版本呢?
于是去到 pytorch官网 ,点 install previous versions of PyTorch ,
在这里插入图片描述
看到pytorch1.8.0版本是用的cuda11.1版本:
在这里插入图片描述
好,开干,换pytorch版本:
在conda环境中卸载原先的 pytorch:

pip uninstall pytorch

卸载完后,按照官网的命令重新安装pytorch:

conda install pytorch==1.8.0 torchvision==0.9.0 torchaudio==0.8.0 cudatoolkit=11.1 -c pytorch -c conda-forge

重新安装后,小胡又一次运行了项目,嘿,这次成了,项目正常运行,没有报错!
嘿嘿嘿!折腾了半天多时间,终于修好了。对于环境的问题已经无力吐槽了,每次都想死!

总结

遇到这种 cuda版本的问题,可以考虑从两个方向去尝试:

  1. 更换与 pytorch 版本相匹配的cuda,这个代价比较大;
  2. 更换与 cuda 版本相匹配,并且与项目所用 pytorch 相近的 pytorch 版本,这个代价没那么大,但是有可能版本不适用于项目。

总之,每次遇到环境问题都想死,但是还是要解决的不是吗?焯了!

参考资料

[1] https://blog.csdn.net/Zinnir/article/details/122766367
[2] https://zhuanlan.zhihu.com/p/416712347

这篇关于UserWarning:NVIDIA GeForce RTX 3060 Laptop GPU with CUD.......warnings.warn(incompatible_device_warn的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/215055

相关文章

python忽略warnings的几种方法

《python忽略warnings的几种方法》本文主要介绍了几种在Python忽略警告信息的方法,,可以使用Python内置的警告控制机制来抑制特定类型的警告,下面就来介绍一下,感兴趣的可以了解一下... 目录方法 1: 使用 warnings 模块过滤特定类型和消息内容的警告方法 2: 使用 warnin

AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX

上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。 自 FLU

如何用GPU算力卡P100玩黑神话悟空?

精力有限,只记录关键信息,希望未来能够有助于其他人。 文章目录 综述背景评估游戏性能需求显卡需求CPU和内存系统需求主机需求显式需求 实操硬件安装安装操作系统Win11安装驱动修改注册表选择程序使用什么GPU 安装黑神话悟空其他 综述 用P100 + PCIe Gen3.0 + Dell720服务器(32C64G),运行黑神话悟空画质中等流畅运行。 背景 假设有一张P100-

GPU 计算 CMPS224 2021 学习笔记 02

并行类型 (1)任务并行 (2)数据并行 CPU & GPU CPU和GPU拥有相互独立的内存空间,需要在两者之间相互传输数据。 (1)分配GPU内存 (2)将CPU上的数据复制到GPU上 (3)在GPU上对数据进行计算操作 (4)将计算结果从GPU复制到CPU上 (5)释放GPU内存 CUDA内存管理API (1)分配内存 cudaErro

UserWarning: mkl-service package failed to import

安装完成anaconda,并设置了两个环境变量  之后再控制台运行python环境,输入import numpy as np,提示错误 D:\InstallFolder\Anaconda3\lib\site-packages\numpy\__init__.py:143: UserWarning: mkl-service package failed to import, therefore

Usb Audio Device Descriptor(10) Hid Device

对于 Standard Interface Descriptor, 当 bInterfaceClass=0x03时,即为HID设备。Standard Interface Descriptor如下 struct usb_standard_interface_descriptor{U8 bLength; /*Size of this descriptor in bytes*/U8 bDescrip

PyInstaller问题解决 onnxruntime-gpu 使用GPU和CUDA加速模型推理

前言 在模型推理时,需要使用GPU加速,相关的CUDA和CUDNN安装好后,通过onnxruntime-gpu实现。 直接运行python程序是正常使用GPU的,如果使用PyInstaller将.py文件打包为.exe,发现只能使用CPU推理了。 本文分析这个问题和提供解决方案,供大家参考。 问题分析——找不到ONNX Runtime GPU 动态库 首先直接运行python程序

src/pyaudio/device_api.c:9:10: fatal error: portaudio.h: 没有那个文件或目录

(venv) shgbitai@shgbitai-C9X299-PGF:~/pythonworkspace/ai-accompany$ pip install pyaudio sounddeviceCollecting pyaudioDownloading PyAudio-0.2.14.tar.gz (47 kB)━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

麒麟系统安装GPU驱动

1.nvidia 1.1显卡驱动 本机显卡型号:nvidia rtx 3090 1.1.1下载驱动 打开 https://www.nvidia.cn/geforce/drivers/ 也可以直接使用下面这个地址下载 https://www.nvidia.com/download/driverResults.aspx/205464/en-us/ 1.1.3安装驱动 右击,

2015多校联合训练第一场Tricks Device(hdu5294)

题意:给一个无向图,给起点s,终点t,求最少拆掉几条边使得s到不了t,最多拆几条边使得s能到t 思路: 先跑一边最短路,记录最短路中最短的边数,总边数-最短边数就是第二个答案 第一个答案就是在最短路里面求最小割,也就是求最大流,然后根据最短路在建个新图,权为1,跑一边网络流 模板题,以后就用这套模板了 #include <iostream>#include <cstdio>#incl