一行字实现3D换脸!UC伯克利提出「Chat-NeRF」,说句话完成大片级渲染
由于神经3D重建技术的发展,捕获真实世界3D场景的特征表示从未如此简单。
然而,在此之上的3D场景编辑却一直未能有一个简单有效的方案。
最近,来自UC伯克利的研究人员基于此前的工作InstructPix2Pix,提出了一种使用文本指令编辑NeRF场景的方法——Instruct-NeRF2NeRF。
论文地址:https://arxiv.org/abs/2303.12789
利用Instruct-NeRF2NeRF,我们只需一句话,就能编辑大规模的现实世界场景,并且比以前的工作更真实、更有针对性。
比如,想要他有胡子,脸上就会出现一簇胡子!
或者直接换头,秒变成爱因斯坦。
此外,由于模型能不断地使用新的编辑过的图像更新数据集,所以场景的重建效果也会逐步得到改善。
NeRF + InstructPix2Pix = Instruct-NeRF2NeRF
具体来说,人类需要给定输入图像,以及告诉模型要做什么的书面指令,随后模型就会遵循这些指令来编辑图像。
实现步骤如下:
- 在训练视角下从场景中渲染出一张图像。
- 使用InstructPix2Pix模型根据全局文本指令对该图像进行编辑。
- 用编辑后的图像替换训练数据集中的原始图像。
- NeRF模型按照往常继续进行训练。
实现方法
相比于传统的三维编辑,NeRF2NeRF是一种新的三维场景编辑方法,其最大的亮点在于采用了「迭代数据集更新」技术。
虽然是在3D场景上进行编辑,但论文中使用2D而不是3D扩散模型来提取形式和外观先验,因为用于训练3D生成模型的数据非常有限。
这个2D扩散模型,就是该研究团队不久前开发的InstructPix2Pix——一款基于指令文本的2D图像编辑模型,输入图像和文本指令,它就能输出编辑后的图像。
然而,这种2D模型会导致场景不同角度的变化不均匀,因此,「迭代数据集更新」应运而生,该技术交替修改NeRF的「输入图片数据集」,并更新基础3D表征。
这意味着文本引导扩散模型(InstructPix2Pix)将根据指令生成新的图像变化,并将这些新图像用作NeRF模型训练的输入。因此,重建的三维场景将基于新的文本引导编辑。
在初始迭代中,InstructPix2Pix通常不能在不同视角下执行一致的编辑,然而,在NeRF重新渲染和更新的过程中,它们将会收敛于一个全局一致的场景。
总结而言,NeRF2NeRF方法通过迭代地更新图像内容,并将这些更新后的内容整合到三维场景中,从而提高了3D场景的编辑效率,还保持了场景的连贯性和真实感。
可以说,UC伯克利研究团队的此项工作是此前InstructPix2Pix的延伸版,通过将NeRF与InstructPix2Pix结合,再配合「迭代数据集更新」,一键编辑照样玩转3D场景!
仍有局限,但瑕不掩瑜
不过,由于Instruct-NeRF2NeRF是基于此前的InstructPix2Pix,因此继承了后者的诸多局限,例如无法进行大规模空间操作。
此外,与DreamFusion一样,Instruct-NeRF2NeRF一次只能在一个视图上使用扩散模型,所以也可能会遇到类似的伪影问题。
下图展示了两种类型的失败案例:
(1)Pix2Pix无法在2D中执行编辑,因此NeRF2NeRF在3D中也失败了;
(2)Pix2Pix在2D中可以完成编辑,但在3D中存在很大的不一致性,因此NeRF2NeRF也没能成功。
再比如下面这只「熊猫」,不仅看起来非常凶悍(作为原型的雕像就很凶),而且毛色多少也有些诡异,眼睛在画面移动时也有明显的「穿模」。
自从ChatGPT,Diffusion, NeRFs被拉进聚光灯之下,这篇文章可谓充分发挥了三者的优势,从「AI一句话作图」进阶到了「AI一句话编辑3D场景」。
尽管方法存在一些局限性,但仍瑕不掩瑜,为三维特征编辑给出了一个简单可行的方案,有望成为NeRF发展的里程碑之作。
一句话编辑3D场景
最后,再看一波作者放出的效果。
不难看出,这款一键PS的3D场景编辑神器,不论是指令理解能力,还是图像真实程度,都比较符合预期,未来也许会成为学术界和网友们把玩的「新宠」,继ChatGPT后打造出一个Chat-NeRFs。
即便是随意改变图像的环境背景、四季特点、天气,给出的新图像也完全符合现实逻辑。
原图:
秋天:
雪天:
沙漠:
暴风雨:
参考资料:https://www.php.cn/link/ebeb300882677f350ea818c8f333f5b9
以上是一行字实现3D换脸!UC伯克利提出「Chat-NeRF」,说句话完成大片级渲染的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

写在前面&笔者的个人理解三维Gaussiansplatting(3DGS)是近年来在显式辐射场和计算机图形学领域出现的一种变革性技术。这种创新方法的特点是使用了数百万个3D高斯,这与神经辐射场(NeRF)方法有很大的不同,后者主要使用隐式的基于坐标的模型将空间坐标映射到像素值。3DGS凭借其明确的场景表示和可微分的渲染算法,不仅保证了实时渲染能力,而且引入了前所未有的控制和场景编辑水平。这将3DGS定位为下一代3D重建和表示的潜在游戏规则改变者。为此我们首次系统地概述了3DGS领域的最新发展和关

T-Mobile用户已经开始注意到,他们的手机屏幕上的网络图标有时显示为5GUC,而其他运营商则显示为5GUW。这并不是一个拼写错误,而是代表着不同类型的5G网络。事实上,运营商们正在不断扩大他们的5G网络覆盖范围。在这个话题中,我们将探讨一下T-Mobile智能手机上显示的5GUC和5GUW图标的含义。这两种标志代表着不同的5G技术,每种技术都有其独特的特点和优势。通过了解这些标志的含义,用户可以更好地了解他们所连接的5G网络类型,以便选择最适合自己需求的网络服务。5GUCVS5GUW图标在T

您一定记得,尤其是如果您是Teams用户,Microsoft在其以工作为重点的视频会议应用程序中添加了一批新的3DFluent表情符号。在微软去年宣布为Teams和Windows提供3D表情符号之后,该过程实际上已经为该平台更新了1800多个现有表情符号。这个宏伟的想法和为Teams推出的3DFluent表情符号更新首先是通过官方博客文章进行宣传的。最新的Teams更新为应用程序带来了FluentEmojis微软表示,更新后的1800表情符号将为我们每天

写在前面&笔者的个人理解目前,在整个自动驾驶系统当中,感知模块扮演了其中至关重要的角色,行驶在道路上的自动驾驶车辆只有通过感知模块获得到准确的感知结果后,才能让自动驾驶系统中的下游规控模块做出及时、正确的判断和行为决策。目前,具备自动驾驶功能的汽车中通常会配备包括环视相机传感器、激光雷达传感器以及毫米波雷达传感器在内的多种数据信息传感器来收集不同模态的信息,用于实现准确的感知任务。基于纯视觉的BEV感知算法因其较低的硬件成本和易于部署的特点,以及其输出结果能便捷地应用于各种下游任务,因此受到工业

0.写在前面&&个人理解自动驾驶系统依赖于先进的感知、决策和控制技术,通过使用各种传感器(如相机、激光雷达、雷达等)来感知周围环境,并利用算法和模型进行实时分析和决策。这使得车辆能够识别道路标志、检测和跟踪其他车辆、预测行人行为等,从而安全地操作和适应复杂的交通环境.这项技术目前引起了广泛的关注,并认为是未来交通领域的重要发展领域之一。但是,让自动驾驶变得困难的是弄清楚如何让汽车了解周围发生的事情。这需要自动驾驶系统中的三维物体检测算法可以准确地感知和描述周围环境中的物体,包括它们的位置、

当八卦开始传播新的Windows11正在开发中时,每个微软用户都对新操作系统的外观以及它将带来什么感到好奇。经过猜测,Windows11就在这里。操作系统带有新的设计和功能更改。除了一些添加之外,它还带有功能弃用和删除。Windows11中不存在的功能之一是Paint3D。虽然它仍然提供经典的Paint,它对抽屉,涂鸦者和涂鸦者有好处,但它放弃了Paint3D,它提供了额外的功能,非常适合3D创作者。如果您正在寻找一些额外的功能,我们建议AutodeskMaya作为最好的3D设计软件。如

ChatGPT给AI行业注入一剂鸡血,一切曾经的不敢想,都成为如今的基操。正持续进击的Text-to-3D,就被视为继Diffusion(图像)和GPT(文字)后,AIGC领域的下一个前沿热点,得到了前所未有的关注度。这不,一款名为ChatAvatar的产品低调公测,火速收揽超70万浏览与关注,并登上抱抱脸周热门(Spacesoftheweek)。△ChatAvatar也将支持从AI生成的单视角/多视角原画生成3D风格化角色的Imageto3D技术,受到了广泛关注现行beta版本生成的3D模型,

写在前面项目链接:https://nianticlabs.github.io/mickey/给定两张图片,可以通过建立图片之间的对应关系来估计它们之间的相机姿态。通常,这些对应关系是二维到二维的,而我们估计的姿态在尺度上是不确定的。一些应用,例如随时随地实现即时增强现实,需要尺度度量的姿态估计,因此它们依赖于外部的深度估计器来恢复尺度。本文提出了MicKey,这是一个关键点匹配流程,能够够预测三维相机空间中的度量对应关系。通过学习跨图像的三维坐标匹配,我们能够在没有深度测试的情况下推断出度量相对
