本文主要是介绍Pytorch:测试保存训练模型时,显存充足,却提示cuda out of memory的问题,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
在训练网络结束后,测试训练模型,明明显存还很充足,却提示我cuda out of memory
出现这种问题,有可能是指定GPU时出错(注意指定空闲的GPU),在排除这种情况以后,通过网上查找,说有可能是测试时的环境与训练时的环境不一样所导致,例如在网络训练时所使用的pytorch版本和测试时所使用的版本不同。由于我训练和测试用的同一虚拟环境,故排除这种情况。
还有一种说法,是因为pytorch的版本和cuda的版本不匹配所导致,经检查,也不是这方面的问题。
最后发现,在加载模型的时候,原代码为
# Initialize the network
generator = network.Name(opt)
# Load a pre-trained network
pretrained_net = torch.load(opt.load_name)
load_dict(generator, pretrained_net)
使用torch.load()时,应添加map_location,将其转移到CPU上,如下
# Initialize the network
generator = network.Name(opt)
# Load a pre-trained network
device = torch.device("cpu")
pretrained_net = torch.load(opt.load_name, map_location=device)
load_dict(generator, pretrained_net)
就可以解决了
这篇关于Pytorch:测试保存训练模型时,显存充足,却提示cuda out of memory的问题的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!