GAN的学习 - 训练过程(冻结判别器)

2024-06-15 16:32

本文主要是介绍GAN的学习 - 训练过程(冻结判别器),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

20200823 -

0. 引言

在前一篇文章《GAN的学习[1]》中简单介绍了构造GAN的过程,包括如何构造生成器和判别器,如何训练GAN等,但是其中存在一个问题,就是在训练过程中怎么保证判别器不更新权值。下面针对这部分进行具体的描述。
(20200910 - 增加)
经过了这段时间的学习,对这部分内容有了重新的认识。本篇文章记录的时候,我并不知道tensorflow是怎么实现这种冻结操作的, 但经过了这段时间的学习之后,对训练过程以及tensorflow和keras两种框架不同的处理方式加深了理解。

1. 整体的流程

在GAN进行工作的流程中,需要生成器和判别器的共同工作。判别器的模型使用生成器生成的数据示例和真实的样本进行二分类(可能也会是多分类,这种情况需要特殊考虑),在二分类时,一般是判定数据是真的还是假的;而生成器的训练需要利用判别器所反馈回来的信息(就是损失函数)来实现权值的更新。
(20200901 增加)
GAN的原始训练过程
上图是GAN的原始过程,当k=1的时候(按照图中所说),也就是每训练一次判别器,就训练一次生成器。所以GAN进行训练的过程中,就是生成器和判别器相互博弈,共同提升相应性能的过程。(个人感觉如果陷入了某个最优点是不是会产生震荡呢?)
整体的训练代码如下(同样使用文章[1]引用的文章[2]来进行说明)

# train the generator and discriminator
def train(g_model, d_model, gan_model, dataset, latent_dim, n_epochs=100, n_batch=256):bat_per_epo = int(dataset.shape[0] / n_batch)half_batch = int(n_batch / 2)# manually enumerate epochsfor i in range(n_epochs):# enumerate batches over the training setfor j in range(bat_per_epo):# get randomly selected 'real' samplesX_real, y_real = generate_real_samples(dataset, half_batch)# generate 'fake' examplesX_fake, y_fake = generate_fake_samples(g_model, latent_dim, half_batch)# create training set for the discriminatorX, y = vstack((X_real, X_fake)), vstack((y_real, y_fake))# update discriminator model weightsd_loss, _ = d_model.train_on_batch(X, y)# prepare points in latent space as input for the generatorX_gan = generate_latent_points(latent_dim, n_batch)# create inverted labels for the fake samplesy_gan = ones((n_batch, 1))# update the generator via the discriminator's errorg_loss = gan_model.train_on_batch(X_gan, y_gan)# summarize loss on this batchprint('>%d, %d/%d, d=%.3f, g=%.3f' % (i+1, j+1, bat_per_epo, d_loss, g_loss))

来具体描述一下上述代码的具体含义,关于batch,epochs就不再赘述,直接看最里层训练的东西。步骤如下:
1)生成真实和虚假图片,并放置于新的数据集
2)利用步骤1)中生成的完整数据集训练判别器,此时判别器肯定是能更新的
3)利用生成器来生成假图片,同时将其的标签全部定义为真实的
4)利用生成的假图片(同时标签也进行了反转)来训练GAN模型,注意此时判别器是不能更新权值的,那么这个步骤也就是完全是为了更新生成器来实现的。

注意几个细节:

  1. 先进行了判别器的权值更新~~,从实际上代码反馈出来的意思可以知道,这种单独的更新方式也会导致GAN中的判别器的权值被更新(不然肯定就没有意义了)~~
  2. 在训练GAN的过程中,只利用了假数据来进行训练。

同时这里需要注意的是,虽然代码前面显示训练了判别器,但是需要注意的是,这两个部分的判别器,一个会更新权值,另一个部分不会更新权值。
那么,好了, GAN大致的训练训练过程也就是知道了:就是同时训练判别器和生成器,让两者来促进整体的性能提升。下一小节来具体看各个模型之前的区别,有哪些特殊的设置,来理解为什么这样能工作。

2. 各个部分模型的构建

关于生成器和判别器的模型内部内容,这里不进行关注,本质上使用什么样的模型(什么层这种内容)应该跟具体的任务相关,与GAN的整体训练是没有关系的。
判别器模型:

# define the standalone discriminator model
def define_discriminator(in_shape=(28,28,1)):model = Sequential()model.add(Conv2D(64, (3,3), strides=(2, 2), padding='same', input_shape=in_shape))model.add(LeakyReLU(alpha=0.2))model.add(Dropout(0.4))model.add(Conv2D(64, (3,3), strides=(2, 2), padding='same'))model.add(LeakyReLU(alpha=0.2))model.add(Dropout(0.4))model.add(Flatten())model.add(Dense(1, activation='sigmoid'))# compile modelopt = Adam(lr=0.0002, beta_1=0.5)model.compile(loss='binary_crossentropy', optimizer=opt, metrics=['accuracy'])return model

生成器模型:

# define the standalone generator model
def define_generator(latent_dim):model = Sequential()# foundation for 7x7 imagen_nodes = 128 * 7 * 7model.add(Dense(n_nodes, input_dim=latent_dim))model.add(LeakyReLU(alpha=0.2))model.add(Reshape((7, 7, 128)))# upsample to 14x14model.add(Conv2DTranspose(128, (4,4), strides=(2,2), padding='same'))model.add(LeakyReLU(alpha=0.2))# upsample to 28x28model.add(Conv2DTranspose(128, (4,4), strides=(2,2), padding='same'))model.add(LeakyReLU(alpha=0.2))model.add(Conv2D(1, (7,7), activation='sigmoid', padding='same'))return model

GAN模型

# define the combined generator and discriminator model, for updating the generator
def define_gan(g_model, d_model):# make weights in the discriminator not trainabled_model.trainable = False# connect themmodel = Sequential()# add generatormodel.add(g_model)# add the discriminatormodel.add(d_model)# compile modelopt = Adam(lr=0.0002, beta_1=0.5)model.compile(loss='binary_crossentropy', optimizer=opt)return model

判别器模型中,进行了相应的编译过程,而生成器模型没有进行编译过程, 本身因为他只是为了生成向量,并不是进行分类过程,同时他后面还要连接判别器模型。

重点在这里,在GAN模型的构造过程中,将判别器模型的参数trainable=False,这个步骤能够让GAN模型在训练过程中,判别器的权值不用被更新,其所传达的思想很简单,就是要在GAN训练时只更新生成器的权值。

但是,为什么这样做就能成功呢?而且,需要注意的是,判别器的模型已经编译了最后的分类过程,同时GAN中的判别器模型就是前面的判别器模型,并没有进行deepcopy之类的操作。如果不是同一个模型的话,那么判别器的单独的训练成果必然是不能提现到GAN模型中的。
所以,这里要解决的问题就是为什么这样能够实现一个能够训练(权值更新),一个不能呢?

3. trainable与compile的关系

关于这部分内容,我一开始也很疑惑,特别是同一个模型不同的地方不同的表现;这里的关键点就在于trainablecompile的设置。关于这部分内容,github上也有两个issue[3][4]与其相关,其中[3]是直接来解决这个问题的。具体来说一下[3]的内容。
GAN的解答
把这段话直接引用过来:

By setting trainable=False after the discriminator has been compiled the discriminator is still trained during discriminator.train_on_batch but since it’s set to non-trainable before the combined model is compiled it’s not trained during combined.train_on_batch.

[3]的问题就是,判别器模型和GAN混合模型中的判别器是同一个模型,他们没有使用deepcopy之类的操作,为什么设置了trainable=False另外一个模型还能训练。
而他的解答,翻译过来就是说, 在编译了模型之后再调用这个模型的trainable=False,判别器依然是可以在他自己的训练过程中可以更新权值,而混合的GAN模型在编译之前就设置了这个参数,他的判别器就不会被更新权值。但是,他的解答只是给出了具体现象或者说结果,没有解释处具体原理。但从他的话里可以知道**关键点在于compile的部分。
在issue[4]中,提到了keras官网中给出的解释,具体内容在网址[5]的“How can I freeze layers and do fine-tuning?”部分。
compile的解释

Calling compile() on a model is meant to “freeze” the behavior of that model. This implies that the trainable attribute values at the time the model is compiled should be preserved throughout the lifetime of that model, until compile is called again. Hence, if you change trainable, make sure to call compile() again on your model for your changes to be taken into account.

这里的解释是从compile部分来说明:在一个模型上调用compile时,代表着将冻结这个模型的行为,那么trainable的行为,在这个模型的整个生命过程中,都将被保持,除非这个模型被二次编译。因此如果要改变行为,那么就需要重新调用compile。

从上面的解释中可以知道,compile之后,这个模型的具体内容就已经被保存了。在前面的GAN例子中就可以看到这个东西的流程,判别器模型被编译,但是在构建GAN模型时,又重新进行了设置,同时进行了编译。那么也就是说,他们时共享的权值(实际上他们使用的模型在引用上都是同一个位置),只不过在编译过程中,只有GAN设置了判别器的不可训练。
所以才会出现,两者之前使用的模型都是同一个,只不过一个是可训练,一个是不可训练;来看看issue[3]中给出的代码。

    # build the discriminatorprint('Discriminator model:')discriminator = build_discriminator()discriminator.compile(optimizer=Adam(lr=adam_lr, beta_1=adam_beta_1),loss=['binary_crossentropy', 'sparse_categorical_crossentropy'])discriminator.summary()# build the generatorgenerator = build_generator(latent_size)latent = Input(shape=(latent_size, ))image_class = Input(shape=(1,), dtype='int32')# get a fake imagefake = generator([latent, image_class])# we only want to be able to train generation for the combined modeldiscriminator.trainable = Falsefake, aux = discriminator(fake)combined = Model([latent, image_class], [fake, aux])

为了验证是否权值进行了更新,可以利用一下代码:

    for layer in self.discriminator.layers:print (layer.get_weights())

注:在新版的keras中,如果进行了这种设置,会导致keras产生报警,就会问你,在编译之后又设置了
trainable,但是没有调用compile,这里不一致。之前的时候看到过一篇文章说,这个警告是为了警告新用户对这部分不理解。但是也从侧面说明了前面的问题,在调用了compile之后,trainable的内容的确就伴随了编译之后的模型,所以你改了之后,系统发现了这个不一致。这部分可以在考虑考虑,但是这种方式应该是没有错误的。为了摆脱这种警告,文章[6]采用的方式是在训练之前,分别修改trainable参数,具体如下:

# Train discriminator
discriminator.trainable = True                            # get rid of warning messages (doesn't affect training)
dloss = discriminator.train_on_batch(x_all, y_all)        # this trains only discriminator, doesn't touch gen.noise = np.random.normal(size=[n_batch, 100])
y_fake = np.ones([n_batch, 1])
discriminator.trainable = False                           # get rid of warning messages 
gloss = gan_model.train_on_batch(noise, y_fake)

4. 总结

本篇文章中,讲解了前面的疑惑,就是为什么这样设置能够同时以两种属性对待同一个模型,其实本质上就是compile的问题。虽然这部分问题产生于GAN的学习过程中,但实际上在迁移学习,或者使用以后的一些模型例如vgg这种时,都会有这种需求,也就是保证某层或者整个模型的参数不更新。

参考文章

[1]GAN的学习
[2]How to Develop a GAN for Generating MNIST Handwritten Digits
[3]puzzled about “discriminator.trainable=False”
[4]Keras setting discriminator to non-trainable forever
[5]Keras FAQ
[6]3110_GAN_FC_MNIST.html

这篇关于GAN的学习 - 训练过程(冻结判别器)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1063980

相关文章

51单片机学习记录———定时器

文章目录 前言一、定时器介绍二、STC89C52定时器资源三、定时器框图四、定时器模式五、定时器相关寄存器六、定时器练习 前言 一个学习嵌入式的小白~ 有问题评论区或私信指出~ 提示:以下是本篇文章正文内容,下面案例可供参考 一、定时器介绍 定时器介绍:51单片机的定时器属于单片机的内部资源,其电路的连接和运转均在单片机内部完成。 定时器作用: 1.用于计数系统,可

问题:第一次世界大战的起止时间是 #其他#学习方法#微信

问题:第一次世界大战的起止时间是 A.1913 ~1918 年 B.1913 ~1918 年 C.1914 ~1918 年 D.1914 ~1919 年 参考答案如图所示

[word] word设置上标快捷键 #学习方法#其他#媒体

word设置上标快捷键 办公中,少不了使用word,这个是大家必备的软件,今天给大家分享word设置上标快捷键,希望在办公中能帮到您! 1、添加上标 在录入一些公式,或者是化学产品时,需要添加上标内容,按下快捷键Ctrl+shift++就能将需要的内容设置为上标符号。 word设置上标快捷键的方法就是以上内容了,需要的小伙伴都可以试一试呢!

AssetBundle学习笔记

AssetBundle是unity自定义的资源格式,通过调用引擎的资源打包接口对资源进行打包成.assetbundle格式的资源包。本文介绍了AssetBundle的生成,使用,加载,卸载以及Unity资源更新的一个基本步骤。 目录 1.定义: 2.AssetBundle的生成: 1)设置AssetBundle包的属性——通过编辑器界面 补充:分组策略 2)调用引擎接口API

Javascript高级程序设计(第四版)--学习记录之变量、内存

原始值与引用值 原始值:简单的数据即基础数据类型,按值访问。 引用值:由多个值构成的对象即复杂数据类型,按引用访问。 动态属性 对于引用值而言,可以随时添加、修改和删除其属性和方法。 let person = new Object();person.name = 'Jason';person.age = 42;console.log(person.name,person.age);//'J

大学湖北中医药大学法医学试题及答案,分享几个实用搜题和学习工具 #微信#学习方法#职场发展

今天分享拥有拍照搜题、文字搜题、语音搜题、多重搜题等搜题模式,可以快速查找问题解析,加深对题目答案的理解。 1.快练题 这是一个网站 找题的网站海量题库,在线搜题,快速刷题~为您提供百万优质题库,直接搜索题库名称,支持多种刷题模式:顺序练习、语音听题、本地搜题、顺序阅读、模拟考试、组卷考试、赶快下载吧! 2.彩虹搜题 这是个老公众号了 支持手写输入,截图搜题,详细步骤,解题必备

C/C++的编译和链接过程

目录 从源文件生成可执行文件(书中第2章) 1.Preprocessing预处理——预处理器cpp 2.Compilation编译——编译器cll ps:vs中优化选项设置 3.Assembly汇编——汇编器as ps:vs中汇编输出文件设置 4.Linking链接——链接器ld 符号 模块,库 链接过程——链接器 链接过程 1.简单链接的例子 2.链接过程 3.地址和

Mac excel 同时冻结首行和首列

1. 选择B2窗格 2. 选择视图 3. 选择冻结窗格 最后首行和首列的分割线加粗了就表示成功了

《offer来了》第二章学习笔记

1.集合 Java四种集合:List、Queue、Set和Map 1.1.List:可重复 有序的Collection ArrayList: 基于数组实现,增删慢,查询快,线程不安全 Vector: 基于数组实现,增删慢,查询快,线程安全 LinkedList: 基于双向链实现,增删快,查询慢,线程不安全 1.2.Queue:队列 ArrayBlockingQueue:

硬件基础知识——自学习梳理

计算机存储分为闪存和永久性存储。 硬盘(永久存储)主要分为机械磁盘和固态硬盘。 机械磁盘主要靠磁颗粒的正负极方向来存储0或1,且机械磁盘没有使用寿命。 固态硬盘就有使用寿命了,大概支持30w次的读写操作。 闪存使用的是电容进行存储,断电数据就没了。 器件之间传输bit数据在总线上是一个一个传输的,因为通过电压传输(电流不稳定),但是电压属于电势能,所以可以叠加互相干扰,这也就是硬盘,U盘