guided-pix2pix 代码略解

2024-03-06 20:38
文章标签 代码 guided 略解 pix2pix

本文主要是介绍guided-pix2pix 代码略解,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

《Guided Image-to-Image Translation with Bi-Directional Feature Transformation》

train.py

            model.set_input(data)model.optimize_parameters()

开始训练

models/guided_pix2pix_model.py

    def set_input(self, input):self.real_A = input['A'].to(self.device)self.real_B = input['B'].to(self.device)self.guide = input['guide'].to(self.device)

这里的guide是指的是引导的image/pose,real_A指的是作为输入的image,real_B指的是GT

    def forward(self):self.fake_B = self.netG(self.real_A, self.guide)
# load/define networks
self.netG = networks.define_G(input_nc=opt.input_nc, guide_nc=opt.guide_nc, output_nc=opt.output_nc, ngf=opt.ngf, netG=opt.netG, n_layers=opt.n_layers, norm=opt.norm, init_type=opt.init_type, init_gain=opt.init_gain, gpu_ids=self.gpu_ids)

models/networks.py

def define_G(input_nc, guide_nc, output_nc, ngf, netG, n_layers=8, n_downsampling=3, n_blocks=9, norm='batch', init_type='normal', init_gain=0.02, gpu_ids=[]):net = Nonenorm_layer = get_norm_layer(norm_type=norm)if netG == 'bFT_resnet':net = bFT_Resnet(input_nc, guide_nc, output_nc, ngf, norm_layer=norm_layer, n_blocks=n_blocks)elif netG == 'bFT_unet':net = bFT_Unet(input_nc, guide_nc, output_nc, n_layers, ngf, norm_layer=norm_layer)else:raise NotImplementedError('Generator model name [%s] is not recognized' % netG)net = init_net(net, init_type, init_gain, gpu_ids)return net

看一下bFT_resent

class bFT_Resnet(nn.Module):def __init__(self, input_nc, guide_nc, output_nc, ngf=64, n_blocks=9, norm_layer=nn.BatchNorm2d,padding_type='reflect', bottleneck_depth=100):super(bFT_Resnet, self).__init__()self.activation = nn.ReLU(True)n_downsampling=3## inputpadding_in = [nn.ReflectionPad2d(3), nn.Conv2d(input_nc, ngf, kernel_size=7, padding=0)]self.padding_in = nn.Sequential(*padding_in)self.conv1 = nn.Conv2d(ngf, ngf * 2, kernel_size=3, stride=2, padding=1)self.conv2 = nn.Conv2d(ngf * 2, ngf * 4, kernel_size=3, stride=2, padding=1)self.conv3 = nn.Conv2d(ngf * 4, ngf * 8, kernel_size=3, stride=2, padding=1)## guidepadding_g = [nn.ReflectionPad2d(3), nn.Conv2d(guide_nc, ngf, kernel_size=7, padding=0)]self.padding_g = nn.Sequential(*padding_g)self.conv1_g = nn.Conv2d(ngf, ngf * 2, kernel_size=3, stride=2, padding=1)self.conv2_g = nn.Conv2d(ngf * 2, ngf * 4, kernel_size=3, stride=2, padding=1)self.conv3_g = nn.Conv2d(ngf * 4, ngf * 8, kernel_size=3, stride=2, padding=1)# bottleneck1self.bottleneck_alpha_1 = self.bottleneck_layer(ngf, bottleneck_depth)self.G_bottleneck_alpha_1 = self.bottleneck_layer(ngf, bottleneck_depth)self.bottleneck_beta_1 = self.bottleneck_layer(ngf, bottleneck_depth)self.G_bottleneck_beta_1 = self.bottleneck_layer(ngf, bottleneck_depth)# bottleneck2self.bottleneck_alpha_2 = self.bottleneck_layer(ngf*2, bottleneck_depth)self.G_bottleneck_alpha_2 = self.bottleneck_layer(ngf*2, bottleneck_depth)self.bottleneck_beta_2 = self.bottleneck_layer(ngf*2, bottleneck_depth)self.G_bottleneck_beta_2 = self.bottleneck_layer(ngf*2, bottleneck_depth)# bottleneck3self.bottleneck_alpha_3 = self.bottleneck_layer(ngf*4, bottleneck_depth)self.G_bottleneck_alpha_3 = self.bottleneck_layer(ngf*4, bottleneck_depth)self.bottleneck_beta_3 = self.bottleneck_layer(ngf*4, bottleneck_depth)self.G_bottleneck_beta_3 = self.bottleneck_layer(ngf*4, bottleneck_depth)# bottleneck4self.bottleneck_alpha_4 = self.bottleneck_layer(ngf*8, bottleneck_depth)self.G_bottleneck_alpha_4 = self.bottleneck_layer(ngf*8, bottleneck_depth)self.bottleneck_beta_4 = self.bottleneck_layer(ngf*8, bottleneck_depth)self.G_bottleneck_beta_4 = self.bottleneck_layer(ngf*8, bottleneck_depth)### 这些bottlenect_layer都是由1x1的卷积,激活层,1x1的卷积组成的,做从nc->nc的映射resnet = []mult = 2**n_downsamplingfor i in range(n_blocks):resnet += [ResnetBlock(ngf * mult, padding_type=padding_type, activation=self.activation, norm_layer=norm_layer)]self.resnet = nn.Sequential(*resnet)decoder = []for i in range(n_downsampling):mult = 2**(n_downsampling - i)decoder += [nn.ConvTranspose2d(ngf * mult, int(ngf * mult / 2), kernel_size=3, stride=2, padding=1, output_padding=1),norm_layer(int(ngf * mult / 2)), self.activation]self.pre_decoder = nn.Sequential(*decoder)self.decoder = nn.Sequential(*[nn.ReflectionPad2d(3), nn.Conv2d(ngf, output_nc, kernel_size=7, padding=0), nn.Tanh()])def bottleneck_layer(self, nc, bottleneck_depth):return nn.Sequential(*[nn.Conv2d(nc, bottleneck_depth, kernel_size=1), self.activation, nn.Conv2d(bottleneck_depth, nc, kernel_size=1)])def get_FiLM_param_(self, X, i, guide=False):x = X.clone()# bottleneckif guide:if (i==1):alpha_layer = self.G_bottleneck_alpha_1beta_layer = self.G_bottleneck_beta_1elif (i==2):alpha_layer = self.G_bottleneck_alpha_2beta_layer = self.G_bottleneck_beta_2elif (i==3):alpha_layer = self.G_bottleneck_alpha_3beta_layer = self.G_bottleneck_beta_3elif (i==4):alpha_layer = self.G_bottleneck_alpha_4beta_layer = self.G_bottleneck_beta_4else:if (i==1):alpha_layer = self.bottleneck_alpha_1beta_layer = self.bottleneck_beta_1elif (i==2):alpha_layer = self.bottleneck_alpha_2beta_layer = self.bottleneck_beta_2elif (i==3):alpha_layer = self.bottleneck_alpha_3beta_layer = self.bottleneck_beta_3elif (i==4):alpha_layer = self.bottleneck_alpha_4beta_layer = self.bottleneck_beta_4alpha = alpha_layer(x)beta = beta_layer(x)return alpha, betadef forward(self, input, guidance):input = self.padding_in(input)  guidance = self.padding_g(guidance)g_alpha1, g_beta1 = self.get_FiLM_param_(guidance, 1, guide=True)i_alpha1, i_beta1 = self.get_FiLM_param_(input, 1)guidance = affine_transformation(guidance, i_alpha1, i_beta1)input = affine_transformation(input, g_alpha1, g_beta1)input = self.activation(input)guidance = self.activation(guidance)input = self.conv1(input)guidance = self.conv1_g(guidance)g_alpha2, g_beta2 = self.get_FiLM_param_(guidance, 2, guide=True)i_alpha2, i_beta2 = self.get_FiLM_param_(input, 2)input = affine_transformation(input, g_alpha2, g_beta2)guidance = affine_transformation(guidance, i_alpha2, i_beta2)input = self.activation(input)guidance = self.activation(guidance)input = self.conv2(input)guidance = self.conv2_g(guidance)g_alpha3, g_beta3 = self.get_FiLM_param_(guidance, 3, guide=True)i_alpha3, i_beta3 = self.get_FiLM_param_(input, 3)input = affine_transformation(input, g_alpha3, g_beta3)guidance = affine_transformation(guidance, i_alpha3, i_beta3)input = self.activation(input)guidance = self.activation(guidance)input = self.conv3(input)guidance = self.conv3_g(guidance)g_alpha4, g_beta4 = self.get_FiLM_param_(guidance, 4, guide=True)# guidance在这一步之后就舍弃了input = affine_transformation(input, g_alpha4, g_beta4)input = self.activation(input)input = self.resnet(input)input = self.pre_decoder(input)output = self.decoder(input)return output

 

这篇关于guided-pix2pix 代码略解的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/781284

相关文章

活用c4d官方开发文档查询代码

当你问AI助手比如豆包,如何用python禁止掉xpresso标签时候,它会提示到 这时候要用到两个东西。https://developers.maxon.net/论坛搜索和开发文档 比如这里我就在官方找到正确的id描述 然后我就把参数标签换过来

poj 1258 Agri-Net(最小生成树模板代码)

感觉用这题来当模板更适合。 题意就是给你邻接矩阵求最小生成树啦。~ prim代码:效率很高。172k...0ms。 #include<stdio.h>#include<algorithm>using namespace std;const int MaxN = 101;const int INF = 0x3f3f3f3f;int g[MaxN][MaxN];int n

计算机毕业设计 大学志愿填报系统 Java+SpringBoot+Vue 前后端分离 文档报告 代码讲解 安装调试

🍊作者:计算机编程-吉哥 🍊简介:专业从事JavaWeb程序开发,微信小程序开发,定制化项目、 源码、代码讲解、文档撰写、ppt制作。做自己喜欢的事,生活就是快乐的。 🍊心愿:点赞 👍 收藏 ⭐评论 📝 🍅 文末获取源码联系 👇🏻 精彩专栏推荐订阅 👇🏻 不然下次找不到哟~Java毕业设计项目~热门选题推荐《1000套》 目录 1.技术选型 2.开发工具 3.功能

代码随想录冲冲冲 Day39 动态规划Part7

198. 打家劫舍 dp数组的意义是在第i位的时候偷的最大钱数是多少 如果nums的size为0 总价值当然就是0 如果nums的size为1 总价值是nums[0] 遍历顺序就是从小到大遍历 之后是递推公式 对于dp[i]的最大价值来说有两种可能 1.偷第i个 那么最大价值就是dp[i-2]+nums[i] 2.不偷第i个 那么价值就是dp[i-1] 之后取这两个的最大值就是d

pip-tools:打造可重复、可控的 Python 开发环境,解决依赖关系,让代码更稳定

在 Python 开发中,管理依赖关系是一项繁琐且容易出错的任务。手动更新依赖版本、处理冲突、确保一致性等等,都可能让开发者感到头疼。而 pip-tools 为开发者提供了一套稳定可靠的解决方案。 什么是 pip-tools? pip-tools 是一组命令行工具,旨在简化 Python 依赖关系的管理,确保项目环境的稳定性和可重复性。它主要包含两个核心工具:pip-compile 和 pip

D4代码AC集

贪心问题解决的步骤: (局部贪心能导致全局贪心)    1.确定贪心策略    2.验证贪心策略是否正确 排队接水 #include<bits/stdc++.h>using namespace std;int main(){int w,n,a[32000];cin>>w>>n;for(int i=1;i<=n;i++){cin>>a[i];}sort(a+1,a+n+1);int i=1

html css jquery选项卡 代码练习小项目

在学习 html 和 css jquery 结合使用的时候 做好是能尝试做一些简单的小功能,来提高自己的 逻辑能力,熟悉代码的编写语法 下面分享一段代码 使用html css jquery选项卡 代码练习 <div class="box"><dl class="tab"><dd class="active">手机</dd><dd>家电</dd><dd>服装</dd><dd>数码</dd><dd

生信代码入门:从零开始掌握生物信息学编程技能

少走弯路,高效分析;了解生信云,访问 【生信圆桌x生信专用云服务器】 : www.tebteb.cc 介绍 生物信息学是一个高度跨学科的领域,结合了生物学、计算机科学和统计学。随着高通量测序技术的发展,海量的生物数据需要通过编程来进行处理和分析。因此,掌握生信编程技能,成为每一个生物信息学研究者的必备能力。 生信代码入门,旨在帮助初学者从零开始学习生物信息学中的编程基础。通过学习常用

husky 工具配置代码检查工作流:提交代码至仓库前做代码检查

提示:这篇博客以我前两篇博客作为先修知识,请大家先去看看我前两篇博客 博客指路:前端 ESlint 代码规范及修复代码规范错误-CSDN博客前端 Vue3 项目开发—— ESLint & prettier 配置代码风格-CSDN博客 husky 工具配置代码检查工作流的作用 在工作中,我们经常需要将写好的代码提交至代码仓库 但是由于程序员疏忽而将不规范的代码提交至仓库,显然是不合理的 所

Unity3D自带Mouse Look鼠标视角代码解析。

Unity3D自带Mouse Look鼠标视角代码解析。 代码块 代码块语法遵循标准markdown代码,例如: using UnityEngine;using System.Collections;/// MouseLook rotates the transform based on the mouse delta./// Minimum and Maximum values can