情况:服务器正正常使用,突然用来监控GPU使用的“nvidia-smi”突然不能正常显示,并报错“Failed to initialize NVML Driver/library version mismatch”。但是与此同时,服务器的GPU仍在正常运行。 问题:这个问题虽然不会影响GPU的运行,但是无法监督当前GPU的使用情况,使用不方便。 解决:重启大法好
在Docker中运行报错: Traceback (most recent call last):File "/opt/conda/envs/rapids/lib/python3.8/site-packages/pynvml/nvml.py", line 782, in _nvmlGetFunctionPointer_nvmlGetFunctionPointer_cache[name] = get
在Docker中运行报错: Traceback (most recent call last):File "/opt/conda/envs/rapids/lib/python3.8/site-packages/pynvml/nvml.py", line 782, in _nvmlGetFunctionPointer_nvmlGetFunctionPointer_cache[name] = get