去噪扩散概率模型(DDPM)的简单理解

图1 DDPM 无条件控制生成的图像。 这些不是真实的人、地方、动物或物体。

图1 DDPM 无条件控制生成的图像。 这些不是真实的人、地方、动物或物体。

前言

扩散模型最近在图像生成领域取得了巨大的成功,类似 OpenAI 的 DALL-E 2,Google 的 Imagen,以及 Stability AI 最近发行的能够达到商业级绘画目的的 Stable Diffusion 等,都是基于扩散模型来进行图像生成的。本文对知乎上各位大佬对于扩散模型(特别是 DDPM)的讲解进行了融合,带领大家深入浅出理解扩散和逆扩散过程。

数学基础

  1. 先验概率和后验概率
  • 先验概率:根据以往经验和分析得到的概率。它往往作为由因求果问题中的因出现,如去噪扩散概率模型(DDPM)的简单理解

  • 后验概率:是指在得到结果的信息后重新修正的概率。是执果寻因问题中的因,如去噪扩散概率模型(DDPM)的简单理解

  1. KL 散度

对于两个单一变量的高斯分布的 去噪扩散概率模型(DDPM)的简单理解去噪扩散概率模型(DDPM)的简单理解 而言,它们的 KL 散度为:

去噪扩散概率模型(DDPM)的简单理解

  1. 参数重整化

若希望从高斯分布 去噪扩散概率模型(DDPM)的简单理解 中采样,可以先从标准分布 去噪扩散概率模型(DDPM)的简单理解 采样出 去噪扩散概率模型(DDPM)的简单理解,再得到 去噪扩散概率模型(DDPM)的简单理解,这就是我们想要的采样结果。这样做的好处是将随机性转移到了 去噪扩散概率模型(DDPM)的简单理解 这个常量上,而 去噪扩散概率模型(DDPM)的简单理解去噪扩散概率模型(DDPM)的简单理解 则当作仿射变换网络的一部分。

模型介绍

  1. 模型总览

图2 DDPM 是经过训练以逐渐去除噪声数据的参数化马尔可夫链。我们估计生成过程的参数。

图2 DDPM 是经过训练以逐渐去除噪声数据的参数化马尔可夫链。我们估计生成过程的参数。

DDPM 主要分为两个过程:

  • forward 加噪过程(从右往左)
  • reverse 去噪过程(从左往右)

加噪过程是指向数据集中的真实图像逐步加入高斯噪声,而去噪过程是指对加了噪声的图片逐步去噪,从而还原出真实图像。加噪过程满足一定的数学规律,不需要学习,而去噪过程则采用神经网络模型来学习。这样一来,神经网络模型就可以从一堆杂乱无章的噪声图片中生成真实图片了。

  1. 扩散过程
  • 逐步加噪

给定初始数据分布 去噪扩散概率模型(DDPM)的简单理解,我们定义一个前向扩散过程(forward diffusion process):我们向数据分布中逐步添加高斯噪声,加噪过程持续 去噪扩散概率模型(DDPM)的简单理解 次,产生一系列带噪声的图片 去噪扩散概率模型(DDPM)的简单理解。在由 去噪扩散概率模型(DDPM)的简单理解 加噪至 去噪扩散概率模型(DDPM)的简单理解 的过程中,噪声的标准差/方差是以一个在区间 去噪扩散概率模型(DDPM)的简单理解 内的固定值 去噪扩散概率模型(DDPM)的简单理解 来确定的,均值是以固定值 去噪扩散概率模型(DDPM)的简单理解 和当前时刻的图片数据 去噪扩散概率模型(DDPM)的简单理解 来确定的。以上描述的加噪过程可以写成公式:

去噪扩散概率模型(DDPM)的简单理解

上式的意思是:由去噪扩散概率模型(DDPM)的简单理解得到去噪扩散概率模型(DDPM)的简单理解的过程,满足分布 去噪扩散概率模型(DDPM)的简单理解,因此噪声只由 去噪扩散概率模型(DDPM)的简单理解去噪扩散概率模型(DDPM)的简单理解来确定,是一个固定值而不是一个可学习的过程。因此,只要有了 去噪扩散概率模型(DDPM)的简单理解,并且提前确定每一步的固定值去噪扩散概率模型(DDPM)的简单理解,我们就可以推出任意一部的加噪数据 去噪扩散概率模型(DDPM)的简单理解。值得注意的是,这里的加噪过程是一个马尔科夫链过程,即当前状态的概率只与上一时刻有关。

  • 加噪结果

随着 去噪扩散概率模型(DDPM)的简单理解 的不断增大,最终原始数据 去噪扩散概率模型(DDPM)的简单理解 会逐步失去它的特征。最终当 去噪扩散概率模型(DDPM)的简单理解时,去噪扩散概率模型(DDPM)的简单理解趋近于一个各向同性的高斯分布。从视觉上看,就是将原本一张完好的照片加噪很多步后,图片几乎变成了一张完全时噪声的图片。

  • 任意时刻 去噪扩散概率模型(DDPM)的简单理解的计算

逐步加噪过程中,我们其实并不需要一步步地从 去噪扩散概率模型(DDPM)的简单理解 去迭代得到 去噪扩散概率模型(DDPM)的简单理解。事实上,我们可以直接从 去噪扩散概率模型(DDPM)的简单理解 和固定值序列 去噪扩散概率模型(DDPM)的简单理解直接计算得到:

去噪扩散概率模型(DDPM)的简单理解

上式中,去噪扩散概率模型(DDPM)的简单理解去噪扩散概率模型(DDPM)的简单理解,中间推导过程不再罗列。

  1. 逆扩散过程

如果我们能够将上述过程转换方法,即从去噪扩散概率模型(DDPM)的简单理解中采样,那么我们就可以从一个随机的高斯分布去噪扩散概率模型(DDPM)的简单理解中重建出一个真实的原始样本,也就是从一个完全杂乱无章的噪声图片中得到一张真实图片。但是,由于需要从完整数据集中找到数据分布,我们没办法简单地预测去噪扩散概率模型(DDPM)的简单理解,因此需要学习一个模型去噪扩散概率模型(DDPM)的简单理解来近似模拟这个条件概率,从而运行逆扩散过程。

去噪扩散概率模型(DDPM)的简单理解

要点分析

正向的扩散过程

  • 扩散过程时逐步加噪的过程
  • 扩散过程符合马尔科夫假设
  • 每一步的噪声都是高斯噪声
  • 加噪是用方差参数来控制的(预定义的超参数)
  • 正向扩散过程属于无参模型(不需要进行学习)
  • 该过程支持在任意步长采样(方便后续的训练)

逆向的扩散过程

  • 从高斯噪声中采样,学习一个模型估计真实的条件概率分布(从上一状态到下一状态的条件概率模型)
  • 也可以直接计算任意状态的分布,因此可以直接采样,然后和真实图像计算均方误差
  • 用一个 U-Net 结构来对 去噪扩散概率模型(DDPM)的简单理解 时刻的噪声进行预测
  • 逆过程的均值需要模型预测(有参),但方差采用了常数项(无参,当然有工作将其改进成有参也同样 work)

伪代码

在这里插入图片描述

相关论文

标题简称出版评语
Denoising Diffusion Probabilistic ModelsDDPMNIPS 2020开山之作
Denoising Diffusion Implicit ModelsDDIMICLR 2021采样提速
Improved denoising diffusion probabilistic models\ICML 2021在保证高图像质量的同时提升对数似然
Diffusion Models Beat GANs on Image Synthesis\NIPS 2021Diffusion Models VS. GANs(提出了带条件的扩散模型)
Classifier-Free Diffusion Guidance\NIPS 2021引入等价结构替换分类器引导
Hierarchical Text-Conditional Image Generation with CLIP LatentsDALL-E 2NIPS 2022OpenAI 文本生成图像
Photorealistic Text-to-Image Diffusion Models with Deep Language UnderstandingImagenNIPS 2022Google 文本生成图像
High-Resolution Image Synthesis with Latent Diffusion ModelsLDMCVPR 2022采样提速

参考

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
社会演员多的头像社会演员多普通用户
上一篇 2023年2月22日 下午10:03
下一篇 2023年2月22日 下午10:03

相关推荐