换脸方法大汇总:生成对抗网络GAN、扩散模型等

1、One-Shot Face Video Re-enactment using Hybrid Latent Spaces of StyleGAN2

  • StyleGAN的高保真人像生成,已逐渐克服了单样本面部视频驱动重现的低分辨率限制,但这些方法至少依赖于以下其中之一:明确的2D/3D先验,基于光流作为运动描述,现成的编码器等,这限制了它们的性能(例如,不一致的预测,无法捕捉精细的面部细节和饰品,糟糕的通化,伪影)。

  • 本文提出了一个端到端框架,同时支持面部属性编辑,面部运动和变形,以及视频生成的面部身份控制。它使用了一种混合潜空间,分别在StyleGAN2的W+和SS空间中将给定的帧编码。

  • 模型支持使用其他潜在的语义编辑(例如,胡子、年龄、化妆等)生成真实的重演驱动视频。定性和定量分析进行了先进的方法,证明了所提出的方法的优越性。

  • 项目页面位于:https://trevineoorloff.github.io/FaceVideoReenactment_HybridLatents.io/

02f2efec2ef712b1dcc869f9df91d51b.png

2、DiffFace: Diffusion-based Face Swapping with Facial Guidance

  • 本文提出一种新的基于扩散模型的人脸交换框架,称为 DiffFace,由训练 ID 条件 DDPM、面部引导采样和目标保留混合组成。

  • 具体而言,在训练过程中,ID 条件 DDPM 被训练生成具有所需身份的面部图像。在采样过程中,使用现成的人脸模型,使模型在忠实保留目标属性的同时传递源身份。在此过程中,为了保留目标图像的背景,额外提出了一种目标保留混合策略。它有助于模型 在传输源面部身份的同时保持目标面部的属性不受噪声影响。此外,无需任何重新训练,模型可以灵活地应用额外的面部引导并自适应地控制 ID 属性权衡以达到预期的结果。

  • 本文声称,这是第一种将扩散模型应用于换脸任务的方法。与之前基于 GAN 的方法相比,通过利用扩散模型进行换脸任务,DiffFace 在训练稳定性、高保真度和可控性等方面取得了更好的优势。大量实验表明, DiffFace 与标准人脸交换基准上的最先进方法相当或优于最先进的方法。

  • 项目页面:https://hxngiee.github.io/DiffFace/

920c8d685bc6332aef9c9f76e4b81a78.png

3、FlowFace: Semantic Flow-guided Shape-aware Face Swapping

  • 这项工作提出一个用于形状感知人脸交换的语义流引导的两阶段框架,即 FlowFace。与以前的大多数专注于迁移源内部面部特征而忽略面部轮廓的方法不同,FlowFace 可以将它们都迁移到目标面部,达到更逼真的人脸交换效果。

  • 具体来说,FlowFace 由面部重塑网络和面部交换网络组成。人脸重塑网络解决了源人脸和目标人脸之间的形状轮廓差异。它首先估计源和目标人脸之间的语义流(即面部形状差异),然后使用估计的语义流显式扭曲适应目标面部形状。重塑后,面部交换网络生成内部面部特征,展示源面部的身份。使用预训练的面部掩码自动编码器 (MAE) 从源面部和目标面部中提取面部特征。与之前使用身份嵌入来保存身份信息的方法相比,编码器提取的特征可以更好地捕获面部外观和身份信息。

  • 还开发了一个交叉注意力融合模块,自适应地将源面部的内部面部特征与目标面部属性融合,从而更好地保持身份。大量定量和定性实验表明, FlowFace 优于最先进的技术。

4a2e481e3cc4797d2697d57d85b18689.png

4、Landmark Enforcement and Style Manipulation for Generative Morphing

  • 使用生成对抗网络 (GAN) 的变形生成(Morph generation)可产生不受基于关键点的方法造成的空间伪影影响的高质量变形,但使用常规的基于 GAN 的变形方法会明显丧失身份特征。

  • 本文提出一种新的 StyleGAN 变形生成技术,通过引入关键点执行方法来解决这个问题。使用主成分分析 (PCA) 对模型的潜在空间进行探索,并通过潜在域平均解决身份丢失问题。此外,为了改善变形中的高频重建,研究了 StyleGAN2 模型的噪声输入的可训练性。

d37bf69b57feae1279bc0f006953f13a.png

5、SimSwap: An Efficient Framework For High Fidelity Face Swapping

  • 本文提出了一个高效的方法,称为SimSwap,旨在实现广义和高保真人脸交换。与之前的方法要么缺乏泛化到任意身份的能力,要么无法保留面部表情和注视方向等属性,本文方法能够将任意源人脸的身份转换为任意目标人脸,同时保留人脸的属性。

  • 首先,提出了 ID 注入模块 (IIM),它在特征级别将源人脸的身份信息迁移到目标人脸。通过使用这个模块,将身份特定的人脸交换算法的架构扩展为任意人脸交换的框架。

  • 其次,提出了弱特征匹配损失,它有效地帮助方法以隐式方式保留面部属性。实验表明, SimSwap 能够实现具有竞争力的身份性能,同时比以前的最先进方法更好地保留属性。

  • 代码:https://github.com/neuralchen/SimSwap

4c74d89e8a22688ecce3cc7d918dab03.png

6、FaceDancer: Pose- and Occlusion-Aware High Fidelity Face Swapping

  • 这项工作提出了一种新的单阶段方法,用于与身份无关的换脸和身份变换,名为 FaceDancer。两个主要贡献:自适应特征融合注意(AFFA)和解释特征相似性正则化(IFSR)。

  • AFFA 模块嵌入在解码器中,并自适应地学习融合属性特征和以身份信息为条件的特征,而无需任何额外的面部分割过程。

  • IFSR 利用身份编码器中的中间特征来保留目标人脸中的重要属性,例如头部姿势、面部表情、光照和遮挡,同时仍然以高保真度传输源人脸的身份。

  • 对各种数据集进行了广泛的定量和定性实验,并表明所提出的 FaceDancer 在身份变换方面优于其他最先进的网络,同时比以前的大多数方法具有更好的姿势保存。

c4e7dbcf3824f108eddf70acb1f06be2.png

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
心中带点小风骚的头像心中带点小风骚普通用户
上一篇 2023年4月5日
下一篇 2023年4月5日

相关推荐