风格迁移2-05:MUNIT(多模态无监督)-源码无死角解析(1)-训练代码总览

本文主要是介绍风格迁移2-05:MUNIT(多模态无监督)-源码无死角解析(1)-训练代码总览,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

以下链接是个人关于 MUNIT(多模态无监督)-图片风格转换,的所有见解,如有错误欢迎大家指出,我会第一时间纠正。有兴趣的朋友可以加微信 17575010159 相互讨论技术。若是帮助到了你什么,一定要记得点赞!因为这是对我最大的鼓励。 文末附带 \color{blue}{文末附带} 文末附带 公众号 − \color{blue}{公众号 -} 公众号 海量资源。 \color{blue}{ 海量资源}。 海量资源

风格迁移2-00:MUNIT(多模态无监督)-目录-史上最新无死角讲解

配置文件

在对源码进行讲解之前,我们先来看一下配置文件configs/edges2shoes_folder.yaml,本人注解如下:

# 再训练迭代的期间,保存图像的频率
image_save_iter: 10000        # How often do you want to save output images during training
# 再训练迭代的期间,显示图片的的频率
image_display_iter: 500       # How often do you want to display output images during training
# 单次显示图片的张数
display_size: 16              # How many images do you want to display each time
# 迭代到指定次数,保存一次模型
snapshot_save_iter: 10000     # How often do you want to save trained models
# log打印保存的频率
log_iter: 10                  # How often do you want to log the training stats# optimization options
# 最大的迭代次数
max_iter: 1000000             # maximum number of training iterations
# 每个批次的大小
batch_size: 1                 # batch size
# 权重衰减
weight_decay: 0.0001          # weight decay
# 优化器相关参数
beta1: 0.5                    # Adam parameter
beta2: 0.999                  # Adam parameter
# 初始化的方式
init: kaiming                 # initialization [gaussian/kaiming/xavier/orthogonal]
# 学习率
lr: 0.0001                    # initial learning rate
# 学习率衰减测率
lr_policy: step               # learning rate scheduler
# 学习率
step_size: 100000             # how often to decay learning rate
# 学习率衰减参数
gamma: 0.5                    # how much to decay learning rate
# 计算生成网络loss的权重大小
gan_w: 1                      # weight of adversarial loss
# 重构图片loos的权重
recon_x_w: 10                 # weight of image reconstruction loss
# 重构图片风格loos的权重
recon_s_w: shu1                  # weight of style reconstruction loss
# 重构图片内容loos的权重
recon_c_w: 1                  # weight of content reconstruction lossrecon_x_cyc_w: 0              # weight of explicit style augmented cycle consistency loss
# 域不变感知损失的权重
vgg_w: 0                      # weight of domain-invariant perceptual loss# model options
gen:# 最深卷积层输出特征的维度dim: 64                     # number of filters in the bottommost layer# 全连接层的filtersmlp_dim: 256                # number of filters in MLP# 风格特征的filtersstyle_dim: 8                # length of style code# 激活函数类型activ: relu                 # activation function [relu/lrelu/prelu/selu/tanh]# 内容编码器下采样的层数n_downsample: 2             # number of downsampling layers in content encoder# 内容编码器中使用残差模块的数目n_res: 4                    # number of residual blocks in content encoder/decoder# pad填补的方式pad_type: reflect           # padding type [zero/reflect]dis:# 最深卷积层输出特征的维度dim: 64                     # number of filters in the bottommost layer# 正则化的方式norm: none                  # normalization layer [none/bn/in/ln]# 激活函数类型activ: lrelu                # activation function [relu/lrelu/prelu/selu/tanh]# 鉴别模型的层数n_layer: 4                  # number of layers in D# 计算 GAN loss的方式gan_type: lsgan             # GAN loss [lsgan/nsgan]# 缩放的数目(暂时不知道是什么)num_scales: 3               # number of scales# pad填补的方式pad_type: reflect           # padding type [zero/reflect]# data options
input_dim_a: 3                              # number of image channels [1/3]
input_dim_b: 3                              # number of image channels [1/3]
num_workers: 8                              # number of data loading threads
# 重新调整图片的大小
new_size: 256                               # first resize the shortest image side to this size
# 随机裁剪图片的高宽
crop_image_height: 256                      # random crop image of this height
crop_image_width: 256                       # random crop image of this width
#data_root: ./datasets/edges2shoes/     # dataset folder location
# 数据集的根目录
data_root: ../2.Dataset/edges2shoes        # dataset folder location

train.py代码注释

"""
Copyright (C) 2018 NVIDIA Corporation.  All rights reserved.
Licensed under the CC BY-NC-SA 4.0 license (https://creativecommons.org/licenses/by-nc-sa/4.0/legalcode).
"""
from utils import get_all_data_loaders, prepare_sub_folder, write_html, write_loss, get_config, write_2images, Timer
import argparse
from torch.autograd import Variable
from trainer import MUNIT_Trainer, UNIT_Trainer
import torch.backends.cudnn as cudnn
import torch
try:from itertools import izip as zip
except ImportError: # will be 3.x seriespass
import os
import sys
import tensorboardX
import shutil
if __name__ == '__main__':parser = argparse.ArgumentParser()parser.add_argument('--config', type=str, default='configs/edges2shoes_folder.yaml', help='Path to the config file.')parser.add_argument('--output_path', type=str, default='.', help="outputs path")parser.add_argument("--resume", action="store_true")parser.add_argument('--trainer', type=str, default='MUNIT', help="MUNIT|UNIT")opts = parser.parse_args()cudnn.benchmark = True# Load experiment setting,获取环境配置config = get_config(opts.config)# 最大的迭代次数max_iter = config['max_iter']# 显示图片大小display_size = config['display_size']# vgg模型的路径config['vgg_model_path'] = opts.output_path# Setup model and data loader, 根据配置创建模型if opts.trainer == 'MUNIT':trainer = MUNIT_Trainer(config)elif opts.trainer == 'UNIT':trainer = UNIT_Trainer(config)else:sys.exit("Only support MUNIT|UNIT")trainer.cuda()# 创建训练以及测试得数据迭代器,同时取出对每个迭代器取出display_size张图片,水平拼接到一起,# 后续会一直拿这些图片作为生成图片的演示,当作一个标本即可train_loader_a, train_loader_b, test_loader_a, test_loader_b = get_all_data_loaders(config)train_display_images_a = torch.stack([train_loader_a.dataset[i] for i in range(display_size)]).cuda()train_display_images_b = torch.stack([train_loader_b.dataset[i] for i in range(display_size)]).cuda()test_display_images_a = torch.stack([test_loader_a.dataset[i] for i in range(display_size)]).cuda()test_display_images_b = torch.stack([test_loader_b.dataset[i] for i in range(display_size)]).cuda()# Setup logger and output folders, 设置打印信息以及输出目录# 获得模型的名字model_name = os.path.splitext(os.path.basename(opts.config))[0]# 创建一个 tensorboardX,记录训练过程中的信息train_writer = tensorboardX.SummaryWriter(os.path.join(opts.output_path + "/logs", model_name))# 准备并且创建好输出目录,同时拷贝对应的config.yaml文件output_directory = os.path.join(opts.output_path + "/outputs", model_name)checkpoint_directory, image_directory = prepare_sub_folder(output_directory)shutil.copy(opts.config, os.path.join(output_directory, 'config.yaml')) # copy config file to output folder# Start training,开始训练模型,如果设置opts.resume=Ture,表示接着之前得训练iterations = trainer.resume(checkpoint_directory, hyperparameters=config) if opts.resume else 0while True:# 获取训练数据for it, (images_a, images_b) in enumerate(zip(train_loader_a, train_loader_b)):# 更新学习率,trainer.update_learning_rate()# 指定数据存储计算的设备images_a, images_b = images_a.cuda().detach(), images_b.cuda().detach()with Timer("Elapsed time in update: %f"):# Main training code,主要的训练代码trainer.dis_update(images_a, images_b, config)trainer.gen_update(images_a, images_b, config)torch.cuda.synchronize()# Dump training stats in log file,记录训练过程中的信息if (iterations + 1) % config['log_iter'] == 0:print("Iteration: %08d/%08d" % (iterations + 1, max_iter))write_loss(iterations, trainer, train_writer)# Write images,到达指定次数后,把生成的样本图片写入到输出文件夹,方便观察生成效果,重新保存if (iterations + 1) % config['image_save_iter'] == 0:with torch.no_grad():test_image_outputs = trainer.sample(test_display_images_a, test_display_images_b)train_image_outputs = trainer.sample(train_display_images_a, train_display_images_b)write_2images(test_image_outputs, display_size, image_directory, 'test_%08d' % (iterations + 1))write_2images(train_image_outputs, display_size, image_directory, 'train_%08d' % (iterations + 1))# HTMLwrite_html(output_directory + "/index.html", iterations + 1, config['image_save_iter'], 'images')# Write images,到达指定次数后,把生成的样本图片写入到输出文件夹,方便观察生成效果,覆盖上一次结果if (iterations + 1) % config['image_display_iter'] == 0:with torch.no_grad():image_outputs = trainer.sample(train_display_images_a, train_display_images_b)write_2images(image_outputs, display_size, image_directory, 'train_current')# Save network weights, 保存训练的模型if (iterations + 1) % config['snapshot_save_iter'] == 0:trainer.save(checkpoint_directory, iterations)# 如果超过最大迭代次数,则退出训练iterations += 1if iterations >= max_iter:sys.exit('Finish training')

还是特别简单,基本都是这个套路:
1.加载训练测试数据集迭代器
2.构建网络模型
3.迭代训练
4.模型评估保存
好了,总体的结构就简单的介绍到这里,下小结为大家开始讲解代码的每一个细节。

在这里插入图片描述

这篇关于风格迁移2-05:MUNIT(多模态无监督)-源码无死角解析(1)-训练代码总览的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/289768

相关文章

Golang HashMap实现原理解析

《GolangHashMap实现原理解析》HashMap是一种基于哈希表实现的键值对存储结构,它通过哈希函数将键映射到数组的索引位置,支持高效的插入、查找和删除操作,:本文主要介绍GolangH... 目录HashMap是一种基于哈希表实现的键值对存储结构,它通过哈希函数将键映射到数组的索引位置,支持

利用Python调试串口的示例代码

《利用Python调试串口的示例代码》在嵌入式开发、物联网设备调试过程中,串口通信是最基础的调试手段本文将带你用Python+ttkbootstrap打造一款高颜值、多功能的串口调试助手,需要的可以了... 目录概述:为什么需要专业的串口调试工具项目架构设计1.1 技术栈选型1.2 关键类说明1.3 线程模

Python Transformers库(NLP处理库)案例代码讲解

《PythonTransformers库(NLP处理库)案例代码讲解》本文介绍transformers库的全面讲解,包含基础知识、高级用法、案例代码及学习路径,内容经过组织,适合不同阶段的学习者,对... 目录一、基础知识1. Transformers 库简介2. 安装与环境配置3. 快速上手示例二、核心模

Python使用getopt处理命令行参数示例解析(最佳实践)

《Python使用getopt处理命令行参数示例解析(最佳实践)》getopt模块是Python标准库中一个简单但强大的命令行参数处理工具,它特别适合那些需要快速实现基本命令行参数解析的场景,或者需要... 目录为什么需要处理命令行参数?getopt模块基础实际应用示例与其他参数处理方式的比较常见问http

Python利用ElementTree实现快速解析XML文件

《Python利用ElementTree实现快速解析XML文件》ElementTree是Python标准库的一部分,而且是Python标准库中用于解析和操作XML数据的模块,下面小编就来和大家详细讲讲... 目录一、XML文件解析到底有多重要二、ElementTree快速入门1. 加载XML的两种方式2.

Java的栈与队列实现代码解析

《Java的栈与队列实现代码解析》栈是常见的线性数据结构,栈的特点是以先进后出的形式,后进先出,先进后出,分为栈底和栈顶,栈应用于内存的分配,表达式求值,存储临时的数据和方法的调用等,本文给大家介绍J... 目录栈的概念(Stack)栈的实现代码队列(Queue)模拟实现队列(双链表实现)循环队列(循环数组

java解析jwt中的payload的用法

《java解析jwt中的payload的用法》:本文主要介绍java解析jwt中的payload的用法,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录Java解析jwt中的payload1. 使用 jjwt 库步骤 1:添加依赖步骤 2:解析 JWT2. 使用 N

Python中__init__方法使用的深度解析

《Python中__init__方法使用的深度解析》在Python的面向对象编程(OOP)体系中,__init__方法如同建造房屋时的奠基仪式——它定义了对象诞生时的初始状态,下面我们就来深入了解下_... 目录一、__init__的基因图谱二、初始化过程的魔法时刻继承链中的初始化顺序self参数的奥秘默认

Java 正则表达式URL 匹配与源码全解析

《Java正则表达式URL匹配与源码全解析》在Web应用开发中,我们经常需要对URL进行格式验证,今天我们结合Java的Pattern和Matcher类,深入理解正则表达式在实际应用中... 目录1.正则表达式分解:2. 添加域名匹配 (2)3. 添加路径和查询参数匹配 (3) 4. 最终优化版本5.设计思

使用Java将DOCX文档解析为Markdown文档的代码实现

《使用Java将DOCX文档解析为Markdown文档的代码实现》在现代文档处理中,Markdown(MD)因其简洁的语法和良好的可读性,逐渐成为开发者、技术写作者和内容创作者的首选格式,然而,许多文... 目录引言1. 工具和库介绍2. 安装依赖库3. 使用Apache POI解析DOCX文档4. 将解析