【论文阅读】High-Resolution Image Synthesis with Latent Diffusion Model

2024-03-05 10:20

本文主要是介绍【论文阅读】High-Resolution Image Synthesis with Latent Diffusion Model,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

High-Resolution Image Synthesis with Latent Diffusion Model

引用: Rombach R, Blattmann A, Lorenz D, et al. High-resolution image synthesis with latent diffusion models[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2022: 10684-10695.

论文链接: http://openaccess.thecvf.com/content/CVPR2022/html/Rombach_High-Resolution_Image_Synthesis_With_Latent_Diffusion_Models_CVPR_2022_paper.html
代码链接: https://github.com/CompVis/latent-diffusion

论文概述

通过将图像形成过程分解为去噪自编码器的顺序应用,扩散模型(DMs)在图像数据上实现了最先进的合成结果,并且它们的公式允许在不重新训练的情况下引入引导机制来控制图像生成过程。然而,由于这些模型通常直接在像素空间中操作,优化强大的DMs通常需要数百个GPU天,并且由于顺序评估,推理成本很高。为了在有限的计算资源下进行DM训练,同时保留它们的质量和灵活性,作者将它们应用于强大预训练自编码器的潜在空间。与之前的工作不同,在这样的表示上训练扩散模型首次实现了复杂度降低和细节保留之间的近乎最优平衡,极大地提高了视觉保真度。与纯粹基于transformer的方法相比,可以更优雅地扩展到更高维的数据。与基于像素的扩散方法相比,还显著降低了推理系数。此外,设计了一种基于交叉注意力的通用条件反射机制,实现了多模态训练。通过在模型架构中引入交叉注意力层,将扩散模型转变为强大且灵活的生成器,适用于文本或边界框等一般条件输入,并且高分辨率合成以卷积方式成为可能。提出的潜在扩散模型(LDMs)在图像修复和类条件图像合成方面取得了新的最先进分数,并在各种任务上表现出极具竞争力的性能,包括文本到图像合成、无条件图像生成和超分辨率,同时与基于像素的DMs相比显著降低了计算需求。

Method

为了降低训练扩散模型对高分辨率图像合成的计算要求,尽管扩散模型允许通过对相应的损失项进行欠采样来忽略感知上不相关的细节[1],但它们仍然需要在像素空间中进行昂贵的函数评估,这导致了对计算时间和能源的巨大需求。因此,通过引入压缩学习阶段与生成学习阶段的明确分离来规避这一缺点(见图2)。为了实现这一点,使用了一个自动编码模型,该模型学习了一个在感知上等同于图像空间的空间,但大大降低了计算复杂性。这种方法有几个优点:

  1. 通过离开高维图像空间,我们获得了计算效率更高的DM,因为采样是在低维空间上执行的。
  2. 利用了DMs的归纳偏差,这些偏差继承自其UNet架构,这使得它们对具有空间结构的数据特别有效,因此减轻了以前方法所要求的激进的、降低质量的压缩水平的需求。
  3. 最后获得了通用压缩模型,其潜在空间可用于训练多个生成模型,也可用于其他下游应用,如单图像CLIP引导的合成。
  • Perceptual Image Compression使用感知压缩模型基于以前的工作[2],由一个通过感知损失[3]和基于补丁的[4]对抗目标组合训练的自动编码器组成。这确保了通过强制执行局部真实感来将重建限制在图像流形中,并避免了仅依靠像素空间损失(如 L2 或 L1 物镜)而引入的模糊。为了避免任意高方差的潜在空间,尝试了两种不同类型的正则化。第一种变体KL-reg.对学习的潜在个体施加了对标准正态的轻微KL惩罚,类似于VAE,而VQ-reg 在解码器中使用矢量量化层。该模型可以解释为VQGAN,但量化层被解码器吸收。因为随后的 DM 被设计为学习到的潜在空间 z = E(x) 的二维结构,所以可以使用相对温和的压缩率并实现非常好的重建。这与以前的工作形成鲜明对比,后者依赖于学习空间z的任意一维排序来自动回归地模拟其分布,从而忽略了z的大部分固有结构。因此,该压缩模型可以更好地保留 x 的细节。

  • Latent Diffusion Models扩散模型是一种概率模型,旨在通过逐渐去噪正态分布变量来学习数据分布p(x),这对应于学习长度为T的固定马尔可夫链的反向过程。潜在表示的生成建模通过我们训练好的由 E 和 D 组成的感知压缩模型,因此可以访问一个高效的低维潜在空间,其中高频、难以察觉的细节被抽象出来。与高维像素空间相比,这个空间更适合基于似然的生成模型,因为它们现在可以 (i) 专注于数据的重要语义位,以及 (ii) 在较低维度、计算效率更高的空间中进行训练。与之前在高度压缩、离散的潜在空间中依赖自回归、基于注意力的转换器模型的工作不同,该工作使用的模型可以提供的特定于图像的感应偏差。这包括主要从2D卷积层构建底层UNet的能力,并使用重新加权的边界将目标进一步集中在感知上最相关的bits上
    在这里插入图片描述
    在这里插入图片描述

  • Conditioning Mechanisms:与其他类型的生成模型类似,扩散模型原则上能够模拟p(z|y)形式的条件分布。这可以通过条件去噪自动编码器来实现,并为通过输入y(如文本、语义图或其他图像到图像翻译任务)控制合成过程铺平了道路。该工作通过交叉注意力机制增强其底层UNet骨干,将DM转变为更灵活的条件图像生成器,这对于学习各种输入模式的基于注意力的模型是有效的。为了预处理来自各种模态(例如语言提示)的 y,引入了一个特定于域的编码器,它将 y 投射到中间表示,然后通过交叉注意力层实现,具体如图3所示。

实验

在这里插入图片描述
在这里插入图片描述

参考文献

[1] Jonathan Ho, Ajay Jain, and Pieter Abbeel. Denoising diffusion probabilistic models. In NeurIPS, 2020. 1, 2, 3, 4, 6, 14.

[2] Patrick Esser, Robin Rombach, and Bjorn Ommer. Taming transformers for high-resolution image synthesis. CoRR, abs/2012.09841, 2020. 2, 3, 4, 6, 7, 18, 19, 27, 32, 34

[3] Shengyu Zhao, Jianwei Cui, Yilun Sheng, Yue Dong, Xiao Liang, Eric I-Chao Chang, and Yan Xu. Large scale image completion via co-modulated generative adversarial networks. ArXiv, abs/2103.10428, 2021. 8

[4] Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, and Alexei A. Efros. Image-to-image translation with conditional adversarial networks. In CVPR, ages 5967–5976. IEEE Computer Society, 2017. 3, 4

这篇关于【论文阅读】High-Resolution Image Synthesis with Latent Diffusion Model的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/776204

相关文章

JAVA智听未来一站式有声阅读平台听书系统小程序源码

智听未来,一站式有声阅读平台听书系统 🌟 开篇:遇见未来,从“智听”开始 在这个快节奏的时代,你是否渴望在忙碌的间隙,找到一片属于自己的宁静角落?是否梦想着能随时随地,沉浸在知识的海洋,或是故事的奇幻世界里?今天,就让我带你一起探索“智听未来”——这一站式有声阅读平台听书系统,它正悄悄改变着我们的阅读方式,让未来触手可及! 📚 第一站:海量资源,应有尽有 走进“智听

AI hospital 论文Idea

一、Benchmarking Large Language Models on Communicative Medical Coaching: A Dataset and a Novel System论文地址含代码 大多数现有模型和工具主要迎合以患者为中心的服务。这项工作深入探讨了LLMs在提高医疗专业人员的沟通能力。目标是构建一个模拟实践环境,人类医生(即医学学习者)可以在其中与患者代理进行医学

论文翻译:arxiv-2024 Benchmark Data Contamination of Large Language Models: A Survey

Benchmark Data Contamination of Large Language Models: A Survey https://arxiv.org/abs/2406.04244 大规模语言模型的基准数据污染:一项综述 文章目录 大规模语言模型的基准数据污染:一项综述摘要1 引言 摘要 大规模语言模型(LLMs),如GPT-4、Claude-3和Gemini的快

论文阅读笔记: Segment Anything

文章目录 Segment Anything摘要引言任务模型数据引擎数据集负责任的人工智能 Segment Anything Model图像编码器提示编码器mask解码器解决歧义损失和训练 Segment Anything 论文地址: https://arxiv.org/abs/2304.02643 代码地址:https://github.com/facebookresear

论文翻译:ICLR-2024 PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS

PROVING TEST SET CONTAMINATION IN BLACK BOX LANGUAGE MODELS https://openreview.net/forum?id=KS8mIvetg2 验证测试集污染在黑盒语言模型中 文章目录 验证测试集污染在黑盒语言模型中摘要1 引言 摘要 大型语言模型是在大量互联网数据上训练的,这引发了人们的担忧和猜测,即它们可能已

lvgl8.3.6 控件垂直布局 label控件在image控件的下方显示

在使用 LVGL 8.3.6 创建一个垂直布局,其中 label 控件位于 image 控件下方,你可以使用 lv_obj_set_flex_flow 来设置布局为垂直,并确保 label 控件在 image 控件后添加。这里是如何步骤性地实现它的一个基本示例: 创建父容器:首先创建一个容器对象,该对象将作为布局的基础。设置容器为垂直布局:使用 lv_obj_set_flex_flow 设置容器

OmniGlue论文详解(特征匹配)

OmniGlue论文详解(特征匹配) 摘要1. 引言2. 相关工作2.1. 广义局部特征匹配2.2. 稀疏可学习匹配2.3. 半稠密可学习匹配2.4. 与其他图像表示匹配 3. OmniGlue3.1. 模型概述3.2. OmniGlue 细节3.2.1. 特征提取3.2.2. 利用DINOv2构建图形。3.2.3. 信息传播与新的指导3.2.4. 匹配层和损失函数3.2.5. 与Super

软件架构模式:5 分钟阅读

原文: https://orkhanscience.medium.com/software-architecture-patterns-5-mins-read-e9e3c8eb47d2 软件架构模式:5 分钟阅读 当有人潜入软件工程世界时,有一天他需要学习软件架构模式的基础知识。当我刚接触编码时,我不知道从哪里获得简要介绍现有架构模式的资源,这样它就不会太详细和混乱,而是非常抽象和易

BERT 论文逐段精读【论文精读】

BERT: 近 3 年 NLP 最火 CV: 大数据集上的训练好的 NN 模型,提升 CV 任务的性能 —— ImageNet 的 CNN 模型 NLP: BERT 简化了 NLP 任务的训练,提升了 NLP 任务的性能 BERT 如何站在巨人的肩膀上的?使用了哪些 NLP 已有的技术和思想?哪些是 BERT 的创新? 1标题 + 作者 BERT: Pre-trainin

MVC(Model-View-Controller)和MVVM(Model-View-ViewModel)

1、MVC MVC(Model-View-Controller) 是一种常用的架构模式,用于分离应用程序的逻辑、数据和展示。它通过三个核心组件(模型、视图和控制器)将应用程序的业务逻辑与用户界面隔离,促进代码的可维护性、可扩展性和模块化。在 MVC 模式中,各组件可以与多种设计模式结合使用,以增强灵活性和可维护性。以下是 MVC 各组件与常见设计模式的关系和作用: 1. Model(模型)