本文主要是介绍Pytorch学习系列之六: 数据并行处理及模型文件批量自动加载(Dataset, DataLoader用法),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
说明
将学习如何用 DataParallel 来使用多 GPU。 通过 PyTorch 使用多个 GPU 非常简单。
device = torch.device("cuda:0")model.to(device)
然后,你可以复制所有的张量到 GPU:
mytensor = my_tensor.to(device)
请注意,只是调用 my_tensor.to(device) 返回一个 my_tensor 新的复制在GPU上,而不是重写 my_tensor。你需要分配给他一个新的张
这篇关于Pytorch学习系列之六: 数据并行处理及模型文件批量自动加载(Dataset, DataLoader用法)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!