DeepFake从未如此真实!英伟达最新提出的「隐式扭曲」到底有多强?
近年来,计算机视觉领域的生成技术越来越强,相应「伪造」技术也越来越成熟,从DeepFake换脸到动作模拟,让人难辨真假。
最近英伟达又整了个大的,在NeurIPS 2022会议上发表了一个新的隐式扭曲(Implicit Warping)框架,使用一组源图像和驱动视频的运动来制作目标动画。
论文链接:https://arxiv.org/pdf/2210.01794.pdf
从效果上来看,就是生成的图像更逼真了,人物在视频里动,背景也不会发生变化。
输入的多张源图片通常都会提供不同的外观信息,减少了生成器「幻想」的空间,比如下面这两张作为模型输入。
可以发现,和其他模型相比,隐式扭曲不会产生类似美颜效果的「空间扭曲」之术。
因为人物遮挡的关系,多张源图像还可以提供更完善的背景。
从下面的视频中可以看到,如果只有左面的一张图片,背景后面的是「BD」还是「ED」很难猜测出来,就会导致背景的失真,而两张图片就会生成更稳定的图像。
在对比其他模型时,只有一张源图像的效果也要更好。
神奇的隐式扭曲
学术界对于视频模仿最早可以追溯到2005年,很多项目面部再现的实时表情传输、Face2Face、合成奥巴马、Recycle-GAN、ReenactGAN、动态神经辐射场等等多样化地利用当时有限的几种技术,如生成对抗网络(GAN) 、神经辐射场(NeRF)和自编码器。
并不是所有方法都在尝试从单一帧图像中生成视频,也有一些研究对视频中的每一帧进行复杂的计算,这实际上也正是Deepfake所走的模仿路线。
但由于DeepFake模型获取的信息较少,这种方法需要对每个视频片段进行训练,相比DeepFaceLab或FaceSwap的开源方法相比性能有所下降,这两个模型能够将一个身份强加到任意数量的视频片段中。
2019年发布的FOMM模型让人物随着视频动起来,给视频模仿任务再次注入了一针强心剂。
随后其他研究人员试图从单一的面孔图像或者全身表现中获得多个姿势和表情;但是这种方法通常只适用于那些相对没有表情和不能动的主体,例如相对静止的「说话的头」,因为在面部表情或者姿势中没有网络必须解释的「行为突然变化」。
虽然其中一些技术和方法在深度伪造技术和潜在的扩散图像合成方法大火之前获得了公众的关注,但适用范围有限,多功能性受到质疑。
而英伟达此次着重处理的隐式扭曲,则是在多帧之间甚至只有两帧之间获取信息,而非从一帧中获得所有必要的姿势信息,这种设置在其他的竞争模型中都不存在,或者处理得非常糟糕。
比如迪士尼的工作流程就是由高级动画师绘制主框架和关键帧,其他初级动画师负责绘制中间帧。
通过对以前版本的测试,英伟达的研究人员发现,以前方法的结果质量会随着额外的「关键帧」而恶化,而新方法与动画制作的逻辑一致,随着关键帧数量的增加,性能也会以线性的方式提高。
如果clip的中间发生了一些突然的转变,比如一个事件或者表情在起始帧或者结束帧中都没有表现出来,隐式扭曲可以在这中间点添加一帧,额外的信息会反馈到整个clip的注意机制中。
模型结构
先前的方法,如 FOMM,Monkey-Net 和face-vid2vid等使用显式扭曲绘制一个时间序列,从源人脸和控制运动中提取的信息必须适应且符合这个时间序列。
在这种模型设计下,关键点的最终映射是相当严格的。
相比之下,隐式扭曲使用一个跨模态注意层,其工作流中包含更少的预定义bootstrapping,可以适应来自多个框架的输入。
工作流也不需要在每个关键点的基础上进行扭曲,系统可以从一系列图像中选择最合适的特性。
隐式扭曲也复用了一些FOMM框架中的关键点预测组件,最终用一个简单的U-net对派生的空间驱动关键点表示进行编码。另外一个单独的U-net则用来与衍生的空间表示一起对源图像进行编码,两个网络都可以在64px (256px 平方输出)到384x384px 的分辨率范围内运行。
因为这种机制不能自动解释任何给定视频中姿势和运动的所有可能变化,所以额外的关键帧是很必要的,可以临时添加。如果没有这种干预能力,与目标运动点相似度不足的key将自动uprate,从而导致输出质量的下降。
研究人员对此的解释是,虽然它是一组给定的关键帧中与query最相似的key,但可能不足以产生一个好的输出。
例如,假设源图像有一张嘴唇闭合的脸,而驱动图像有一张嘴唇张开、牙齿暴露的脸。在这种情况下,源图像中没有适合驱动图像嘴部区域的key(和value)。
该方法通过学习额外的与图像无关的key-value pairs来克服这个问题,可以应对源图像中缺少信息的情况。
尽管目前的实现速度相当快,在512x512px 的图像上大约10 FPS,研究人员认为,在未来的版本中,pipeline可以通过一个因子化的 I-D 注意力层或空间降低注意力(SRA)层(即金字塔视觉Transformer)来优化。
由于隐式扭曲使用的是全局注意力而不是局部注意力,因此它可以预测之前模型无法预测的因素。
实验结果
研究人员在 VoxCeleb2数据集,更具挑战性的 TED Talk 数据集和 TalkingHead-1KH 数据集上测试了该系统,比较了256x256px 和完整的512x512px 分辨率之间的基线,使用的指标包括FID、基于 AlexNet的LPIPS和峰值信噪比(pSNR)。
用于测试的对比框架包括FOMM和face-vid2vid,以及AA-PCA,由于以前的方法很少或根本没有能力使用多个关键帧,这也是隐式扭曲的主要创新,研究人员还设计了相似测试方法。
隐式扭曲在大多数指标上表现优于大多数对比方法。
在多关键帧重建测试中,研究人员使用最多180帧序列,并选择间隙帧,隐式扭曲这次获得了全面胜利。
随着源图像数量的增加,该方法可以获得更好的重建结果,所有指标的得分都有所提高。
而随着源图像数量的增加,先前工作的重建效果变差,与预期相反。
通过AMT的工作人员进行定性研究后,也认为隐式变形的生成结果强于其他方法。
如果能够使用这种框架,用户将能够制作出更连贯、更长的视频模拟和全身深度假视频,所有这些都能够展现出比该系统已经试验过的任何框架都要大得多的运动范围。
不过更逼真的图像合成研究也带来了担忧,因为这些技术可以轻易地用于伪造,论文中也有标准的免责声明。
如果我们的方法被用来制造DeepFake产品,就有可能产生负面影响。恶意语音合成透过跨身份转移及传送虚假资料,制作人物的虚假影像,导致身份被盗用或传播虚假新闻。但在受控设置中,同样的技术也可以用于娱乐目的。
论文还指出了该系统在神经视频重建方面的潜力,比如谷歌的Project Starline,在这个框架中,重建工作主要集中在客户端,利用来自另一端的人的稀疏运动信息。
这个方案越来越引起研究界的兴趣,并且也有公司打算通过发送纯运动数据或者稀疏间隔的关键帧来实现低带宽的电话会议,这些关键帧将在到达目标客户端时被解释和插入到完整的高清视频中。
以上是DeepFake从未如此真实!英伟达最新提出的「隐式扭曲」到底有多强?的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

一先导与重点文章主要介绍自动驾驶技术中几种常用的坐标系统,以及他们之间如何完成关联和转换,最终构建出统一的环境模型。这里重点理解自车到相机刚体转换(外参),相机到图像转换(内参),图像到像素有单位转换。3d向2d转换会有相应的畸变,平移等。重点:自车坐标系相机机体坐标系需要被重写的是:平面坐标系像素坐标系难点:要考虑图像畸变,去畸变和加畸变都是在像平面上去补偿二简介视觉系统一共有四个坐标系:像素平面坐标系(u,v)、图像坐标系(x,y)、相机坐标系()和世界坐标系()。每种坐标系之间均存在联系,

StableDiffusion3的论文终于来了!这个模型于两周前发布,采用了与Sora相同的DiT(DiffusionTransformer)架构,一经发布就引起了不小的轰动。与之前版本相比,StableDiffusion3生成的图质量有了显着提升,现在支持多主题提示,并且文字书写效果也得到了改善,不再出现乱码情况。 StabilityAI指出,StableDiffusion3是一个系列模型,其参数量从800M到8B不等。这一参数范围意味着该模型可以在许多便携设备上直接运行,从而显着降低了使用AI

轨迹预测在自动驾驶中承担着重要的角色,自动驾驶轨迹预测是指通过分析车辆行驶过程中的各种数据,预测车辆未来的行驶轨迹。作为自动驾驶的核心模块,轨迹预测的质量对于下游的规划控制至关重要。轨迹预测任务技术栈丰富,需要熟悉自动驾驶动/静态感知、高精地图、车道线、神经网络架构(CNN&GNN&Transformer)技能等,入门难度很大!很多粉丝期望能够尽快上手轨迹预测,少踩坑,今天就为大家盘点下轨迹预测常见的一些问题和入门学习方法!入门相关知识1.预习的论文有没有切入顺序?A:先看survey,p

这篇论文探讨了在自动驾驶中,从不同视角(如透视图和鸟瞰图)准确检测物体的问题,特别是如何有效地从透视图(PV)到鸟瞰图(BEV)空间转换特征,这一转换是通过视觉转换(VT)模块实施的。现有的方法大致分为两种策略:2D到3D和3D到2D转换。2D到3D的方法通过预测深度概率来提升密集的2D特征,但深度预测的固有不确定性,尤其是在远处区域,可能会引入不准确性。而3D到2D的方法通常使用3D查询来采样2D特征,并通过Transformer学习3D和2D特征之间对应关系的注意力权重,这增加了计算和部署的

笔者的一些个人思考在自动驾驶领域,随着BEV-based子任务/端到端方案的发展,高质量的多视图训练数据和相应的仿真场景构建愈发重要。针对当下任务的痛点,“高质量”可以解耦成三个方面:不同维度上的长尾场景:如障碍物数据中近距离的车辆以及切车过程中精准的朝向角,以及车道线数据中不同曲率的弯道或较难采集的匝道/汇入/合流等场景。这些往往靠大量的数据采集和复杂的数据挖掘策略,成本高昂。3D真值-图像的高度一致:当下的BEV数据获取往往受到传感器安装/标定,高精地图以及重建算法本身的误差影响。这导致了我

突然发现了一篇19年的论文GSLAM:AGeneralSLAMFrameworkandBenchmark开源代码:https://github.com/zdzhaoyong/GSLAM直接上全文,感受这项工作的质量吧~1摘要SLAM技术最近取得了许多成功,并吸引了高科技公司的关注。然而,如何同一现有或新兴算法的界面,一级有效地进行关于速度、稳健性和可移植性的基准测试仍然是问题。本文,提出了一个名为GSLAM的新型SLAM平台,它不仅提供评估功能,还为研究人员提供了快速开发自己的SLAM系统的有用

请留意,这个方块人正在紧锁眉头,思考着面前几位“不速之客”的身份。原来她陷入了危险境地,意识到这一点后,她迅速展开脑力搜索,寻找解决问题的策略。最终,她决定先逃离现场,然后尽快寻求帮助,并立即采取行动。与此同时,对面的人也在进行着与她相同的思考……在《我的世界》中出现了这样一个场景,所有的角色都由人工智能控制。他们每个人都有着独特的身份设定,比如之前提到的女孩就是一个年仅17岁但聪明勇敢的快递员。他们拥有记忆和思考能力,在这个以《我的世界》为背景的小镇中像人类一样生活。驱动他们的,是一款全新的、

23年9月国防科大、京东和北理工的论文“DeepModelFusion:ASurvey”。深度模型融合/合并是一种新兴技术,它将多个深度学习模型的参数或预测合并为一个模型。它结合了不同模型的能力来弥补单个模型的偏差和错误,以获得更好的性能。而大规模深度学习模型(例如LLM和基础模型)上的深度模型融合面临着一些挑战,包括高计算成本、高维参数空间、不同异构模型之间的干扰等。本文将现有的深度模型融合方法分为四类:(1)“模式连接”,通过一条损失减少的路径将权重空间中的解连接起来,以获得更好的模型融合初
