本文主要是介绍PyTorch版本DCGAN实现的注解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
PyTorch版本DCGAN实现的注解
该篇博文是对PyTorch官方Examples中DCGAN(Deep Convolution Generative Adversarial Networks)实现过程中的一些细节要点的注解
首先是对该脚本运行参数的一些说明:
- —dataset 指定训练数据集
- —dataroot 指定数据集下载路径或者已经存在的数据集路径
- —workers DataLoader进行数据预处理及数据加载使用进程数
- —batchSize 一次batch进入模型的图片数目
- —imageSize 原始图片重采样进入模型前的大小
- —nz 初始噪音向量的大小(Size of latent z z vector)
- —ngf 生成网络中基础feature数目(随着网络层数增加,feature数目翻倍)
- —ndf 判别网络中基础feature数目 (随着网络层数增加,feature数据翻倍)
- —niter 网络训练过程中epoch数目
- —lr 初始学习率
- —beta1 使用Adam优化算法中的参数值
- —cuda 指定使用GPU进行训练
- —netG 指定生成网络的检查点文件(保存的生成网络的权值文件)
- —netD 指定判别网络的检查点文件(保存的判别网络的权值文件)
- —outf 模型输出图片以及检查点文件的保存路径
- —manualSeed 指定生成随机数的seed
下面说一下我自己认为比较重要的一些细节点:
数据预处理
我以CIFAR10数据集举例,原始数据是 32×32 32 × 32 的图片,在数据加载过程中,我们使用transforms.Compose()
将一系列预处理变换进行组合,transforms.Resize()
将图片重采样到指定大小,transforms.ToTensor()
将PIL Image或者numpy.ndarray对象转为tensor并且将原来[0, 255]的取值范围,变为[0.0, 1.0]的取值范围。最后,transforms.Normalize()
将图像范围转变为[-1, 1].
transforms.Normalize()
的第一个参数是平均值,第二个参数是标准差,图像有几个channel,给定的平均值和标准差应该有多大的Size. transforms.Normalize
的计算过程是这样的:input[channel] = (input[channel] - mean[channel]) / std[channel].
这些操作在DataLoader每次迭代过程中计算,而不是直接作用在Dataset原始数据集上面
生成网络
生成网络中主要使用了5个逆卷积层将原始的噪音数据扩展成 64×64 64 × 64 的图片,卷积核的大小是 4×4 4 × 4 , feature maps个数的变化依次是 ngf×8 n g f × 8 -> ngf×4 n g f × 4 -> ngf×2 n g f × 2 -> ngf n g f ->
这篇关于PyTorch版本DCGAN实现的注解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!