[MM18]BeautyGAN: Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network

本文主要是介绍[MM18]BeautyGAN: Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

BeautyGAN: Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network

  • ACM MM 2018
  • http://liusi-group.com/projects/BeautyGAN
  • facial makeup transfer | generative adversarial network

一、摘要

妆容迁移的目的在于从给定的一个带妆图片中的化妆风格迁移到一张不带妆的照片中,并且保留其面部特征。属于局部风格迁移

这种实例级别的风格迁移比常规的域迁移更具有挑战性:

  1. 没有成对的训练数据。
  2. 不同于全局风格迁移(例如绘画),其迁移的区域是局部的风格(眉毛、嘴唇)。现有的方法对提取迁移局部的精的特征不可行。

BeautyGAN:综合考虑global domain-level loss, 和local instance-level loss. 使用两个输入输出的GAN网络。总的损失函数包括四个部分:

  1. Domain-Level:其中判别器将生成的图像和真实图像的区别开。
  2. Instance-Level:计算分离的局部面部像素级直方图loss。
  3. Perceptual Loss和Cycle Consistency Loss生成高质量面部并且保留面部特征。

此外还开源了一个数据集,包括3834张高分辨率的面部照片。

二、研究背景

例如美图秀秀等传统的虚拟画妆工具需要用户手动的进行交互,并且只提供一小部分固定的妆容风格。

而自动的妆容迁移是一种帮助用户选择最合适的妆容风格的有效方法,通过给定一些妆容的参考,可以在不改变面部特征的情况下,实现自动对不带妆的照片进行上妆。

目前自动的妆容迁移技术主要分为两类:传统的图像处理方法和深度学习的方法。其中图像处理方法通常将图像分解成几层(例如,面部结构,颜色,皮肤),将参考面部图像变形为非化妆图像之后,将每一层迁移。深度学习的方法采用几个独立的网络单独处理不同的妆容。之前的方法将妆容的风格看作为不同“容器”的简单的组合,因此,在组合位置时,整体输出图像看起来不自然。

妆容迁移是无法直接使用端到端的结构产生高质量的图像的,因为妆容迁移存在以下问题:

  1. 化妆风格因人而异,需要在实例级别进行转换。(GAN主要用于域级别的迁移,例如CycleGAN强调域内不同,忽视了域间的区别)。
  2. 妆容风格不仅仅是全局的风格,还包括独立的局部风格。因此在保留不同化妆品不同的特征下,很难抽取全局的妆容风格。(传统的风格迁移更多的是从全局风格迁移,例如笔触、颜色风格。而妆容风格更加的精细,对于不同的化妆部位,都有不同的风格)。
  3. 缺少数据集,尤其是很难获得具有不同化妆风格的一对对齐的面部图像。所以需要进行非监督学习。

BeautyGAN:
网络首先使用几个判别器将非化妆脸部转移到化妆域,以区分从domain真实样本生成的图像。在域级别迁移的基础上,在不同面部区域的计算用像素直方图损失实现实例级别的迁移。为了保留脸部特征,还在整体损失函数中加入了感知损失和循环一致性损失。

三、论文贡献

  1. 通过双重输入/输出的生成对抗网络实现自动妆容迁移。
  2. 通过在局部区域使用像素级直方图损失来实现实例级别风格迁移。
  3. 开源了妆容数据集,包括3834张高分辨率照片。

四、网络结构

两张图片作为输入,A是不带妆的图片的集合,B是带妆的图片集合。

其中 I s r c I_{src} Isrc作为不带妆的源图片, I r e f I_{ref} Iref作为带妆的参考图片。

网络输出为 I s r c B I_{src}^{B} IsrcB作为带妆的源图片:在保留源图片的面部特征下,合成参考图片的妆容风格。

I r e f A I_{ref}^{A} IrefA作为不带妆的参考图片:参考图片去掉妆容的图片。
在这里插入图片描述
首先输入两张图片,然后通过不同的两组卷积提取特征,然后concatenate在一起,
输入residual block中,之后通过两组反卷积,将输出的feature map上采样,生成 I s r c B I_{src}^{B} IsrcB I r e f A I_{ref}^{A} IrefA

生成的图片再次经过同样的G得到最终的 I s r c r e c I^{rec}_{src} Isrcrec I r e f r e c I^{re c}_{ref} Irefrec

注意:

  1. 生成器G使用了instance normalization

  2. 判别器 D A D_A DA, D B D_B DB中使用了 70*70 的 Patch GAN

总的Loss函数包括四个部分:
在这里插入图片描述

4.1 GAN Loss

GAN Loss主要是使得生成的图片更加逼真。

其包括两个判别器 D A D_A DA D B D_B DB的对抗损失
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.2 Perceptual Loss

Perceptual Loss 的目的在于更好的保留图片的面部特征。

首先使用16层的VGG网络在ImageNet上做预训练, F l ( x ) F_l(x) Fl(x)表示图片X在VGG中第i层的特征, C l , H l , W l C_l, H_l, W_l Cl,Hl,Wl分别是feature map的数量、高度、宽度。
在这里插入图片描述

4.3 Cycle Consistency Loss

Cycle Consistency Loss 目的在于保持背景信息的一致。

通过直接对比生成图像和原图像的距离,L1或者L2距离都可以。
在这里插入图片描述

4.4 Makeup Loss

在这里插入图片描述
Makeup Loss目的在于迁移时只将化妆部位的颜色迁移过来,而不改变源图的形态。具体的方法是采用直方图匹配(Histogram Matching)

首先先对 I s r c I_{src} Isrc I r e f I_{ref} Iref, I s r c B I_{src}^{B} IsrcB面部进行分割,采用的方法是PSPNet,得到不同部位的Mask,在所有的Mask中只挑选出face eye lip部分进行二值化,得到 M l i p M_{lip} Mlip, M l e y e M_{leye} Mleye, M f a c e M_{face} Mface.。

然后用该模板与对应的图像相乘,得到源图片x和参考图片y的不同部位。

对这些部位进行颜色直方图匹配,得到相同颜色分布的H(x,y),其保留了x的特征,和y的颜色分布。

然后对生成的带妆图 I s r c B I^B_{src} IsrcB和直方图匹配的函数进行对比。
在这里插入图片描述
在这里插入图片描述

五、实验效果

5.1 定性分析

  1. Guo[11]-Digital Face Makeup:传统方法,效果不真实、轮廓不准确,细节迁移的不对
  2. Gatys[8]:颗粒感,没有对妆容进行迁移
  3. Liu[23]-DTN:对于不同的妆部分独立的迁移:边缘有缺陷,面部和眼影迁移的不好
  4. Liao[21]:Deep Image Analogy:妆容迁移的细节较好,但是背景也被错误的迁移了过来。
  5. Cycle-GAN[35]:并没有进行迁移妆容
    在这里插入图片描述
    其实后面两种方法是对整体的画面风格进行迁移,所以效果有所缺陷。

5.2 定量分析

在这里插入图片描述
利用人对不同方法生成的图片进行打分,可以看到BueatyGAN打分在RANK1区间的最高,所以效果最好。

5.3 Ablation Study

对不同的Loss的作用进行对比。
在这里插入图片描述

在这里插入图片描述
可以看到去掉了perceptual loss之后,面部的特征发生了变化,所以perceptual loss的作用对于保留面部特征起到很大的作用。

C、D、E依次加上了不同化妆部位的Loss,可以看到三个不同部分的妆容依次添加了上去。

这篇关于[MM18]BeautyGAN: Instance-level Facial Makeup Transfer with Deep Generative Adversarial Network的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/618150

相关文章

poj 2349 Arctic Network uva 10369(prim or kruscal最小生成树)

题目很麻烦,因为不熟悉最小生成树的算法调试了好久。 感觉网上的题目解释都没说得很清楚,不适合新手。自己写一个。 题意:给你点的坐标,然后两点间可以有两种方式来通信:第一种是卫星通信,第二种是无线电通信。 卫星通信:任何两个有卫星频道的点间都可以直接建立连接,与点间的距离无关; 无线电通信:两个点之间的距离不能超过D,无线电收发器的功率越大,D越大,越昂贵。 计算无线电收发器D

OpenStack实例操作选项解释:启动和停止instance实例

关于启动和停止OpenStack实例 如果你想要启动和停止OpenStack实例时,有四种方法可以考虑。 管理员可以暂停、挂起、搁置、停止OpenStack 的计算实例。但是这些方法之间有什么不同之处? 目录 关于启动和停止OpenStack实例1.暂停和取消暂停实例2.挂起和恢复实例3.搁置(废弃)实例和取消废弃实例4.停止(删除)实例 1.暂停和取消暂停实例

图神经网络框架DGL实现Graph Attention Network (GAT)笔记

参考列表: [1]深入理解图注意力机制 [2]DGL官方学习教程一 ——基础操作&消息传递 [3]Cora数据集介绍+python读取 一、DGL实现GAT分类机器学习论文 程序摘自[1],该程序实现了利用图神经网络框架——DGL,实现图注意网络(GAT)。应用demo为对机器学习论文数据集——Cora,对论文所属类别进行分类。(下图摘自[3]) 1. 程序 Ubuntu:18.04

深度学习--对抗生成网络(GAN, Generative Adversarial Network)

对抗生成网络(GAN, Generative Adversarial Network)是一种深度学习模型,由Ian Goodfellow等人在2014年提出。GAN主要用于生成数据,通过两个神经网络相互对抗,来生成以假乱真的新数据。以下是对GAN的详细阐述,包括其概念、作用、核心要点、实现过程、代码实现和适用场景。 1. 概念 GAN由两个神经网络组成:生成器(Generator)和判别器(D

MiniCPM-V: A GPT-4V Level MLLM on Your Phone

MiniCPM-V: A GPT-4V Level MLLM on Your Phone 研究背景和动机 现有的MLLM通常需要大量的参数和计算资源,限制了其在实际应用中的范围。大部分MLLM需要部署在高性能云服务器上,这种高成本和高能耗的特点,阻碍了其在移动设备、离线和隐私保护场景中的应用。 文章主要贡献: 提出了MiniCPM-V系列模型,能在移动端设备上部署的MLLM。 性能优越:

Deep Ocr

1.圈出内容,文本那里要有内容.然后你保存,并'导出数据集'. 2.找出deep_ocr_recognition_training_workflow.hdev 文件.修改“DatasetFilename := 'Test.hdict'” 310行 write_deep_ocr (DeepOcrHandle, BestModelDeepOCRFilename) 3.推理test.hdev

Neighborhood Homophily-based Graph Convolutional Network

#paper/ccfB 推荐指数: #paper/⭐ #pp/图结构学习 流程 重定义同配性指标: N H i k = ∣ N ( i , k , c m a x ) ∣ ∣ N ( i , k ) ∣ with c m a x = arg ⁡ max ⁡ c ∈ [ 1 , C ] ∣ N ( i , k , c ) ∣ NH_i^k=\frac{|\mathcal{N}(i,k,c_{

Error: label vector and instance matrix must be double的解决方法

在使用uci下载的数据时,建模时出现这个错误的解决方法 首先现在UCI上面下载数据 然后右键另存为就行了。这样我们就从UCI里面下载到了训练数据 在matlab 点 导入数据,数据类型要记得选第二个, 如果选择最后一个table就会出现这个问题 最后附上代码 %%之前先import wine.date IMPORTED DATA 设为Numeric Matrix (数值矩

后起之秀 | MySQL Binlog增量同步工具go-mysql-transfer实现详解

点击上方蓝色字体,选择“设为星标” 回复”资源“获取更多资源 一、 概述 工作需要研究了下阿里开源的MySQL Binlog增量订阅消费组件canal,其功能强大、运行稳定,但是有些方面不是太符合需求,主要有如下三点: 需要自己编写客户端来消费canal解析到的数据server-client模式,需要同时部署server和client两个组件,我们的项目中有6个业务数据库要实时同步到redis

F12抓包05:Network接口测试(抓包篡改请求)

课程大纲         使用线上接口测试网站演示操作,浏览器F12检查工具如何进行简单的接口测试:抓包、复制请求、篡改数据、发送新请求。         测试地址:https://httpbin.org/forms/post ① 抓包:鼠标右键打开“检查”工具(F12),tab导航选择“网络”(Network),输入前3项点击提交,可看到录制的请求和返回数据。