【Tensorflow+Keras】keras实现条件生成对抗网络DCGAN--以Minis和fashion_mnist数据集为例

本文主要是介绍【Tensorflow+Keras】keras实现条件生成对抗网络DCGAN--以Minis和fashion_mnist数据集为例,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1 引言

条件生成对抗网络(Conditional Generative Adversarial Nets,简称CGAN)是GAN的改进。

举例如图所示,如果使用Minist数据集

  • 在GAN中,在训练时,随机初始化一个和图片大小一致的矩阵和原始图片的矩阵进行博弈,产生一个新的类似于原始图片的网络。
  • 在Conditional GAN中,在训练时,会同时输入label,告诉当前网络生成的图片是数字8,而不是生成其他数字的图片

在这里插入图片描述

图1 GAN原理图

在这里插入图片描述

图2 Conditional GAN原理图

2 实现

Github源码

Mian.py

指定条件即条件输入是Label


import tensorflow as tf
from tensorflow.keras.datasets import fashion_mnist,mnist
import utils
from models import build_discriminator_model,build_generator_model
import numpy as np# 图片维度
noise_dim = 100
# 学习率
learning_rate = 1e-4
# 交叉熵用来计算生成器Generator和鉴别器Disctiminator的损失函数
cross_entropy = tf.keras.losses.BinaryCrossentropy(from_logits=True)
# 指定使用哪个数据集
dataset = 'fashion_mnist'
if dataset == 'mnist':(X_train, y_train), (X_test, y_test) = mnist.load_data()
if dataset == 'fashion_mnist':(X_train, y_train), (X_test, y_test) = fashion_mnist.load_data()
else:raise RuntimeError('Dataset not found')
# 数据标准化
X_train, X_test = utils.normalize(X_train, X_test)
# 初始化G和D
discriminator = build_discriminator_model()
generator = build_generator_model()
# 数据标准化
def normalize(train, test):# convert from integers to floatstrain_norm = train.astype('float32')test_norm = test.astype('float32')# normalize to range 0-1train_norm = train_norm / 255.0test_norm = test_norm / 255.0# return normalized imagesreturn train_norm, test_norm# 生成器和鉴别器的优化器
generator_optimizer = tf.keras.optimizers.Adam(learning_rate = 1e-4)
discriminator_optimizer = tf.keras.optimizers.Adam(learning_rate = 1e-4)# 鉴别器的损失函数
def discriminator_loss(real_output, fake_output):real_loss = cross_entropy(tf.ones_like(real_output), real_output)fake_loss = cross_entropy(tf.zeros_like(fake_output), fake_output)total_loss = real_loss + fake_lossreturn total_loss
# 生成器的损失函数
def generator_loss(fake_output):return cross_entropy(tf.ones_like(fake_output), fake_output)
# 保存模型
def save_models(epochs, learning_rate):generator.save(f'generator-epochs-{epochs}-learning_rate-{learning_rate}.h5')discriminator.save(f'discriminator-epochs-{epochs}-learning_rate-{learning_rate}.h5')# 训练
tf.function
def train_step(batch_size=512):# 随机产生一组下标,从训练数据中随机抽取训练集idx = np.random.randint(0, X_train.shape[0], batch_size)# 随机抽取训练集Xtrain, labels = X_train[idx], y_train[idx]with tf.GradientTape() as gen_tape, tf.GradientTape() as disc_tape:# 随机初始化一个和图片大小的矩阵z = np.random.normal(0, 1, size=(batch_size, noise_dim))# 经过生成器,产生一个图片。并指定条件是label,把label嵌入到图片中generated_images = generator([z, labels], training=True)real_output = discriminator([Xtrain, labels], training=True)fake_output = discriminator([generated_images, labels], training=True)gen_loss = generator_loss(fake_output)disc_loss = discriminator_loss(real_output, fake_output)# 打印G和D的损失函数tf.print(f'Genrator loss: {gen_loss} Discriminator loss: {disc_loss}')gradients_of_generator = gen_tape.gradient(gen_loss, generator.trainable_variables)gradients_of_discriminator = disc_tape.gradient(disc_loss, discriminator.trainable_variables)# 更新梯度generator_optimizer.apply_gradients(zip(gradients_of_generator, generator.trainable_variables))discriminator_optimizer.apply_gradients(zip(gradients_of_discriminator, discriminator.trainable_variables))
if __name__  =="__main__":epochs = 100for epoch in range(1, epochs + 1):print(f'Epoch {epoch}/{epochs}')train_step()if epoch % 500 == 0:save_models(epoch, learning_rate)

Model.py

模型采用深度卷卷积的GAN网络结构

import tensorflow as tf
from tensorflow.keras import layers
from tensorflow.keras.models import Sequential, Model
import numpy as npWIDTH, HEIGHT = 28, 28
num_classes = 10
img_channel = 1
img_shape = (WIDTH, HEIGHT, img_channel)
noise_dim = 100def build_generator_model():model = tf.keras.Sequential()model.add(layers.Dense(7*7*256, use_bias=False,input_shape=(noise_dim,)))model.add(layers.BatchNormalization())model.add(layers.LeakyReLU())model.add(layers.Reshape((7, 7, 256)))model.add(layers.Conv2DTranspose(128, (1, 1), strides=(1, 1), padding='same', use_bias=False))model.add(layers.BatchNormalization())model.add(layers.LeakyReLU())model.add(layers.Conv2DTranspose(64, (3, 3), strides=(2, 2), padding='same', use_bias=False))model.add(layers.BatchNormalization())model.add(layers.LeakyReLU())model.add(layers.Conv2DTranspose(1, (5, 5), strides=(2, 2), padding='same', use_bias=False, activation='tanh'))z = layers.Input(shape=(noise_dim,))label = layers.Input(shape=(1,))label_embedding = layers.Embedding(num_classes, noise_dim, input_length = 1)(label)label_embedding = layers.Flatten()(label_embedding)joined = layers.multiply([z, label_embedding])img = model(joined)return Model([z, label], img)def build_discriminator_model():model = tf.keras.Sequential()model.add(layers.Conv2D(64, (5, 5), strides=(2, 2), padding='same',input_shape=[28, 28, 2]))model.add(layers.LeakyReLU())model.add(layers.Dropout(0.3))model.add(layers.Conv2D(128, (5, 5), strides=(2, 2), padding='same'))model.add(layers.LeakyReLU())model.add(layers.Dropout(0.3))model.add(layers.Flatten())model.add(layers.Dense(1))img = layers.Input(shape=(img_shape))label = layers.Input(shape=(1,))label_embedding = layers.Embedding(input_dim=num_classes, output_dim=np.prod(img_shape), input_length = 1)(label)label_embedding = layers.Flatten()(label_embedding)label_embedding = layers.Reshape(img_shape)(label_embedding)concat = layers.Concatenate(axis=-1)([img, label_embedding])prediction = model(concat)return Model([img, label], prediction)

这篇关于【Tensorflow+Keras】keras实现条件生成对抗网络DCGAN--以Minis和fashion_mnist数据集为例的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/414551

相关文章

Nginx实现动态封禁IP的步骤指南

《Nginx实现动态封禁IP的步骤指南》在日常的生产环境中,网站可能会遭遇恶意请求、DDoS攻击或其他有害的访问行为,为了应对这些情况,动态封禁IP是一项十分重要的安全策略,本篇博客将介绍如何通过NG... 目录1、简述2、实现方式3、使用 fail2ban 动态封禁3.1 安装 fail2ban3.2 配

Java中实现订单超时自动取消功能(最新推荐)

《Java中实现订单超时自动取消功能(最新推荐)》本文介绍了Java中实现订单超时自动取消功能的几种方法,包括定时任务、JDK延迟队列、Redis过期监听、Redisson分布式延迟队列、Rocket... 目录1、定时任务2、JDK延迟队列 DelayQueue(1)定义实现Delayed接口的实体类 (

Rust中的BoxT之堆上的数据与递归类型详解

《Rust中的BoxT之堆上的数据与递归类型详解》本文介绍了Rust中的BoxT类型,包括其在堆与栈之间的内存分配,性能优势,以及如何利用BoxT来实现递归类型和处理大小未知类型,通过BoxT,Rus... 目录1. Box<T> 的基础知识1.1 堆与栈的分工1.2 性能优势2.1 递归类型的问题2.2

将java程序打包成可执行文件的实现方式

《将java程序打包成可执行文件的实现方式》本文介绍了将Java程序打包成可执行文件的三种方法:手动打包(将编译后的代码及JRE运行环境一起打包),使用第三方打包工具(如Launch4j)和JDK自带... 目录1.问题提出2.如何将Java程序打包成可执行文件2.1将编译后的代码及jre运行环境一起打包2

通俗易懂的Java常见限流算法具体实现

《通俗易懂的Java常见限流算法具体实现》:本文主要介绍Java常见限流算法具体实现的相关资料,包括漏桶算法、令牌桶算法、Nginx限流和Redis+Lua限流的实现原理和具体步骤,并比较了它们的... 目录一、漏桶算法1.漏桶算法的思想和原理2.具体实现二、令牌桶算法1.令牌桶算法流程:2.具体实现2.1

Python使用Pandas对比两列数据取最大值的五种方法

《Python使用Pandas对比两列数据取最大值的五种方法》本文主要介绍使用Pandas对比两列数据取最大值的五种方法,包括使用max方法、apply方法结合lambda函数、函数、clip方法、w... 目录引言一、使用max方法二、使用apply方法结合lambda函数三、使用np.maximum函数

MySQL8.0设置redo缓存大小的实现

《MySQL8.0设置redo缓存大小的实现》本文主要在MySQL8.0.30及之后版本中使用innodb_redo_log_capacity参数在线更改redo缓存文件大小,下面就来介绍一下,具有一... mysql 8.0.30及之后版本可以使用innodb_redo_log_capacity参数来更改

C++使用栈实现括号匹配的代码详解

《C++使用栈实现括号匹配的代码详解》在编程中,括号匹配是一个常见问题,尤其是在处理数学表达式、编译器解析等任务时,栈是一种非常适合处理此类问题的数据结构,能够精确地管理括号的匹配问题,本文将通过C+... 目录引言问题描述代码讲解代码解析栈的状态表示测试总结引言在编程中,括号匹配是一个常见问题,尤其是在

Java实现检查多个时间段是否有重合

《Java实现检查多个时间段是否有重合》这篇文章主要为大家详细介绍了如何使用Java实现检查多个时间段是否有重合,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录流程概述步骤详解China编程步骤1:定义时间段类步骤2:添加时间段步骤3:检查时间段是否有重合步骤4:输出结果示例代码结语作

使用C++实现链表元素的反转

《使用C++实现链表元素的反转》反转链表是链表操作中一个经典的问题,也是面试中常见的考题,本文将从思路到实现一步步地讲解如何实现链表的反转,帮助初学者理解这一操作,我们将使用C++代码演示具体实现,同... 目录问题定义思路分析代码实现带头节点的链表代码讲解其他实现方式时间和空间复杂度分析总结问题定义给定