本文主要是介绍3D 生成重建014-Bidiff使用二维和三维先验的双向扩散,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
3D 生成重建014-Bidiff使用二维和三维先验的双向扩散
文章目录
- 0 论文工作
- 1 论文方法
- 2 效果
0 论文工作
大多数三维生成研究集中在将二维基础模型向上投影到三维空间中,要么通过最小化二维评分蒸馏采样(SDS)损失,要么通过对多视图数据集进行微调。由于缺乏显式的三维先验,这些方法经常导致几何异常和多视图不一致。近来研究人员试图通过直接在三维数据集上进行训练来改善三维物体的质量,其代价是生成的纹理质量较低,因为三维数据集中有限的纹理多样性。为了利用这两种方法的优势,作者提出了双向扩散(BiDiff),这是一个同时包含3D和2D的统一框架扩散过程中,二者分别服务于三维保真度和二维纹理丰富度。此外,由于一个简单的组合可能会产生不一致的生成结果,论文用bidiff把他们连接起来。
这篇论文旨在解决当前文本到三维生成方法的局限性,特别是几何异常和多视角不一致的问题,并提出一种名为 BiDiff (Bidirectional Diffusion) 的新方法,以生成高质量、细节丰富且三维一致的模型。
其实这个地方已经可以看到SyncDreamer和SyncMVD的味道了
1 论文方法
BiDiff 的核心思想是将预训练的二维和三维扩散模型结合起来,并利用双向引导机制来同步两个扩散过程,从而学习一个联合的二维和三维先验。
1方法概述:
混合表示: 使用 SDF (Signed Distance Field) 表示三维特征,使用多视角图像表示二维特征。
双向扩散: 分别训练一个三维扩散模型和一个二维扩散模型,并通过双向引导机制进行联合微调。
二维引导三维: 将二维扩散模型去噪后的多视角图像投影到三维空间,引导三维扩散模型的去噪过程。
三维引导二维: 将三维扩散模型去噪后的 SDF 渲染成多视角图像,引导二维扩散模型的去噪过程。
2. 优势:
高质量纹理: 利用预训练的二维扩散模型,BiDiff 可以生成比仅使用三维数据集训练的模型更丰富的纹理细节。
三维一致性: 通过双向引导机制,BiDiff 确保了生成的三维模型在不同视角下的一致性。
可控性: BiDiff 可以分别控制纹理和几何形状的生成,例如,在保持形状不变的情况下改变纹理,或在保持纹理风格不变的情况下改变形状。
高效性: 相比于基于优化的文本到三维生成方法,BiDiff 的生成速度更快。
3. 其他特点:
利用三维先验: BiDiff 使用 Shap-E 作为三维先验,并引入噪声以避免过度依赖先验模型。
与优化方法结合: BiDiff 的输出可以作为优化方法的初始化,进一步提升模型质量和效率。
4. 额外的分析:
创新性: BiDiff 的创新性主要体现在双向引导机制,它有效地将二维和三维扩散过程结合起来,并利用两个先验模型的优势。
局限性: 论文中没有与其他最新的文本到三维生成方法进行详细的比较,例如DreamFusion, ProlificDreamer等。
未来方向: 可以探索更强大的二维和三维扩散模型,以及更有效的引导机制,进一步提升生成质量和效率。
2 效果
这篇关于3D 生成重建014-Bidiff使用二维和三维先验的双向扩散的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!