风格迁移2-06:MUNIT(多模态无监督)-源码无死角解析(3)-模型框架(前向传播)

本文主要是介绍风格迁移2-06:MUNIT(多模态无监督)-源码无死角解析(3)-模型框架(前向传播),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

以下链接是个人关于 MUNIT(多模态无监督)-图片风格转换,的所有见解,如有错误欢迎大家指出,我会第一时间纠正。有兴趣的朋友可以加微信 17575010159 相互讨论技术。若是帮助到了你什么,一定要记得点赞!因为这是对我最大的鼓励。 文末附带 \color{blue}{文末附带} 文末附带 公众号 − \color{blue}{公众号 -} 公众号 海量资源。 \color{blue}{ 海量资源}。 海量资源

风格迁移2-00:MUNIT(多模态无监督)-目录-史上最新无死角讲解

前言

根据上一篇博客,可以知道,模型的构建代码为 train.py 中的如下部分:

    # Setup model and data loader, 根据配置创建模型if opts.trainer == 'MUNIT':trainer = MUNIT_Trainer(config)elif opts.trainer == 'UNIT':trainer = UNIT_Trainer(config)else:sys.exit("Only support MUNIT|UNIT")trainer.cuda()

那么我们就进入 MUNIT_Trainer(config) 看看把,可以知道MUNIT_Trainer主要实现了如下函数:

class MUNIT_Trainer(nn.Module):def __init__(self, hyperparameters):# 网络前向传播def forward(self, x_a, x_b):# 生成模型进行优化def gen_update(self, x_a, x_b, hyperparameters):# 鉴别模型进行优化def dis_update(self, x_a, x_b, hyperparameters):

以上几个函数,就是我们重点分析的对象。

框架总览

对于 pytorch 框架构建的网络,我们一般是先查看他的 forward(网络前向传播) ,代码实现如下:

    # 网络前向传播def forward(self, x_a, x_b):# 先设定为推断模式self.eval()# 把随机噪声转化为pytorch变量s_a = Variable(self.s_a)s_b = Variable(self.s_b)# 输入图片a,b进行编码,分别得到论文中的content code 以及 style codec_a, s_a_fake = self.gen_a.encode(x_a)c_b, s_b_fake = self.gen_b.encode(x_b)# 对content code 加入噪声,然后进行解码(混合),得到合成的图片x_ba = self.gen_a.decode(c_b, s_a)x_ab = self.gen_b.decode(c_a, s_b)self.train()return x_ab, x_ba

从总体来看,过程是十分简单的,首先对输入的两张图片都进行编码,分别得到两张图片的 content code 以及 style code,再互换,然后加入符合正态分布的噪声生成新的图片x_ab, x_ba。

了解了总体框架之后,我们再来看看初始化函数。

初始化函数

该函数的注释如下(后面有带读):

    def __init__(self, hyperparameters):super(MUNIT_Trainer, self).__init__()lr = hyperparameters['lr']# Initiate the networks# 生成网络模型a, 即由数据集A到数据集B的映射self.gen_a = AdaINGen(hyperparameters['input_dim_a'], hyperparameters['gen'])  # auto-encoder for domain a# 生成网络模型b, 即由数据集B到数据集A的映射self.gen_b = AdaINGen(hyperparameters['input_dim_b'], hyperparameters['gen'])  # auto-encoder for domain b# 鉴别模型a,鉴别生成的图像,是否和数据集A的分布一致self.dis_a = MsImageDis(hyperparameters['input_dim_a'], hyperparameters['dis'])  # discriminator for domain a# 鉴别模型b,鉴别生成的图像,是否和数据集B的分布一致self.dis_b = MsImageDis(hyperparameters['input_dim_b'], hyperparameters['dis'])  # discriminator for domain b# 使用正则化的方式self.instancenorm = nn.InstanceNorm2d(512, affine=False)# style 输出的特征码维度self.style_dim = hyperparameters['gen']['style_dim']# fix the noise used in sampling, 随机加入噪声,噪声符合正态分布display_size = int(hyperparameters['display_size'])self.s_a = torch.randn(display_size, self.style_dim, 1, 1).cuda()self.s_b = torch.randn(display_size, self.style_dim, 1, 1).cuda()# Setup the optimizers, 优化器的超参数beta1 = hyperparameters['beta1']beta2 = hyperparameters['beta2']# 鉴别模型a,b的相关参数dis_params = list(self.dis_a.parameters()) + list(self.dis_b.parameters())# 生成模型a,b的相关参数gen_params = list(self.gen_a.parameters()) + list(self.gen_b.parameters())# 构建鉴别模型以及生成生成模型的优化器self.dis_opt = torch.optim.Adam([p for p in dis_params if p.requires_grad],lr=lr, betas=(beta1, beta2), weight_decay=hyperparameters['weight_decay'])self.gen_opt = torch.optim.Adam([p for p in gen_params if p.requires_grad],lr=lr, betas=(beta1, beta2), weight_decay=hyperparameters['weight_decay'])# 鉴别模型以及生成生成模型的学习率衰减策略self.dis_scheduler = get_scheduler(self.dis_opt, hyperparameters)self.gen_scheduler = get_scheduler(self.gen_opt, hyperparameters)# Network weight initialization,网络模型权重初始化self.apply(weights_init(hyperparameters['init']))self.dis_a.apply(weights_init('gaussian'))self.dis_b.apply(weights_init('gaussian'))# Load VGG model if needed,加载VGG模型,用来计算感知 lossif 'vgg_w' in hyperparameters.keys() and hyperparameters['vgg_w'] > 0:self.vgg = load_vgg16(hyperparameters['vgg_model_path'] + '/models')self.vgg.eval()for param in self.vgg.parameters():param.requires_grad = False

总的来说,初始化的过程中,主要构建了两个生成器gen_a,gen_b。以及两个鉴别器dis_a,dis_b。和对应的优化器。最后还创建了计算感知 loss 需要的VGG网络。

最主要的是,生成器gen_a,gen_b中包含了解码器和生成器,下篇博客我会对 loss 的计算进行讲解,需要大家继续观看。

在这里插入图片描述

这篇关于风格迁移2-06:MUNIT(多模态无监督)-源码无死角解析(3)-模型框架(前向传播)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/289780

相关文章

Linux中shell解析脚本的通配符、元字符、转义符说明

《Linux中shell解析脚本的通配符、元字符、转义符说明》:本文主要介绍shell通配符、元字符、转义符以及shell解析脚本的过程,通配符用于路径扩展,元字符用于多命令分割,转义符用于将特殊... 目录一、linux shell通配符(wildcard)二、shell元字符(特殊字符 Meta)三、s

Golang的CSP模型简介(最新推荐)

《Golang的CSP模型简介(最新推荐)》Golang采用了CSP(CommunicatingSequentialProcesses,通信顺序进程)并发模型,通过goroutine和channe... 目录前言一、介绍1. 什么是 CSP 模型2. Goroutine3. Channel4. Channe

使用Python实现批量访问URL并解析XML响应功能

《使用Python实现批量访问URL并解析XML响应功能》在现代Web开发和数据抓取中,批量访问URL并解析响应内容是一个常见的需求,本文将详细介绍如何使用Python实现批量访问URL并解析XML响... 目录引言1. 背景与需求2. 工具方法实现2.1 单URL访问与解析代码实现代码说明2.2 示例调用

SSID究竟是什么? WiFi网络名称及工作方式解析

《SSID究竟是什么?WiFi网络名称及工作方式解析》SID可以看作是无线网络的名称,类似于有线网络中的网络名称或者路由器的名称,在无线网络中,设备通过SSID来识别和连接到特定的无线网络... 当提到 Wi-Fi 网络时,就避不开「SSID」这个术语。简单来说,SSID 就是 Wi-Fi 网络的名称。比如

SpringCloud配置动态更新原理解析

《SpringCloud配置动态更新原理解析》在微服务架构的浩瀚星海中,服务配置的动态更新如同魔法一般,能够让应用在不重启的情况下,实时响应配置的变更,SpringCloud作为微服务架构中的佼佼者,... 目录一、SpringBoot、Cloud配置的读取二、SpringCloud配置动态刷新三、更新@R

使用Java解析JSON数据并提取特定字段的实现步骤(以提取mailNo为例)

《使用Java解析JSON数据并提取特定字段的实现步骤(以提取mailNo为例)》在现代软件开发中,处理JSON数据是一项非常常见的任务,无论是从API接口获取数据,还是将数据存储为JSON格式,解析... 目录1. 背景介绍1.1 jsON简介1.2 实际案例2. 准备工作2.1 环境搭建2.1.1 添加

Java汇编源码如何查看环境搭建

《Java汇编源码如何查看环境搭建》:本文主要介绍如何在IntelliJIDEA开发环境中搭建字节码和汇编环境,以便更好地进行代码调优和JVM学习,首先,介绍了如何配置IntelliJIDEA以方... 目录一、简介二、在IDEA开发环境中搭建汇编环境2.1 在IDEA中搭建字节码查看环境2.1.1 搭建步

在C#中合并和解析相对路径方式

《在C#中合并和解析相对路径方式》Path类提供了几个用于操作文件路径的静态方法,其中包括Combine方法和GetFullPath方法,Combine方法将两个路径合并在一起,但不会解析包含相对元素... 目录C#合并和解析相对路径System.IO.Path类幸运的是总结C#合并和解析相对路径对于 C

Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)

《Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)》:本文主要介绍Python基于火山引擎豆包大模型搭建QQ机器人详细的相关资料,包括开通模型、配置APIKEY鉴权和SD... 目录豆包大模型概述开通模型付费安装 SDK 环境配置 API KEY 鉴权Ark 模型接口Prompt

Java解析JSON的六种方案

《Java解析JSON的六种方案》这篇文章介绍了6种JSON解析方案,包括Jackson、Gson、FastJSON、JsonPath、、手动解析,分别阐述了它们的功能特点、代码示例、高级功能、优缺点... 目录前言1. 使用 Jackson:业界标配功能特点代码示例高级功能优缺点2. 使用 Gson:轻量