神经体绘制:NeRF及其以外方法
参考论文总结“NEURAL VOLUME RENDERING: NERF AND BEYOND“,2021年1月,乔治亚理工和麻省理工的合著。
神经渲染定义为:
“一种深度图像或视频生成方法,可显式或隐式控制场景属性,如照明、摄像机参数、姿势、几何、外观和语义结构”。
它是一种新数据驱动解决方案,解决了计算机图形学中长期存在的虚拟世界真实感渲染问题。
神经体渲染,是指通过跟踪光线进入场景并沿光线长度进行某种积分生成图像或视频的方法。通常,像多层感知器一样的神经网络将从光线的3D坐标到密度和颜色等的函数进行编码,并集成生成图像。
神经体渲染的直接先驱工作是用神经网络定义隐式曲面表示的方法。许多3D感知图像生成方法使用体素、网格、点云或其他表示,通常基于卷积架构。但在2019年CVPR上,至少有三篇论文介绍了用神经网络作为标量函数近似来定义占有率(occupancy)和/或符号距离函数(SDF)。
- Occupancy networks引入基于坐标的隐式占有学习。由5个ResNet块组成的网络,输入采用特征向量和3D点,预测二值占用。
- IM-NET用6层MLP解码器,在给定特征向量和3D坐标的情况下预测二值占有。可用于自动编码、形状生成(GAN-样式)和单视图重建。
- DeepSDF直接从一个3D坐标和一个潜代码中提取符号距离函数。它使用了一个8层MPL,其中到第4层有跳连接。
- PIFu表明,将3D点重新投影到像素对齐的特征表示中,可以学习特别详细的隐式模型。这个在PixelNeRF中会重演,效果非常好。
其他采用隐函数的方法有:
- Structured Implicit Functions(2019)表明,可以组合这些隐式表示,例如,简单地求和。
- CvxNet(2020)通过采用逐点Max(3D)组合符号距离函数。
- BSP网络(2020)在许多方面类似于CvxNet,但在其核心使用二值空间划分,产生了一种局部输出多边形网格的方法,而不是通过昂贵的网格划分方法。
- Deep Local Shapes(2020)将深度SDF潜代码存储在体素网格中,表示更大的扩展场景。
- Scene Representation Networks(2019)或SRN,在架构上与DeepSDF非常相似,但添加可微分光线行进算法找到学习的隐式曲面最近交点,并添加MLP回归颜色,能够从多个姿态的图像中学习。
- Differentiable Volumetric Rendering(2019)表明,隐式场景表示可以与可微分渲染器相结合,从图像中可以进行训练,类似于SRN。用“体渲染器”一词,但真正的主要贡献是一个巧妙的技巧,使隐式曲面的深度计算可微分:不在体上积分。
- Implicit Differentiable Renderer(2020)提供了类似的技术,但具有更复杂的表面光场表示,表明它可以在训练期间优化摄像头姿态。
- Neural Articulated Shape Approximation(2020)或NASA,组成隐式函数来表示关节目标,如人体。
并非完全无中生有,尽管仍然是基于(warped)体素的表示,神经体(Neural Volumes)论文引入了用于视图合成的体渲染,回归了密度和颜色的3D体。潜代码被解码成3D体,然后通过体渲染获得新图像。
其提出在3D空间中的每个位置使用不透明度和颜色组成的体表示,其中通过积分投影实现渲染。在优化过程中,这种半透明的几何表示沿积分射线分散梯度信息,有效地扩大了收敛范围,从而能够发现良好的解决方案。
引起大家讨论的论文是神经辐射场NeRF论文(2020年)。本质上,用深度SDF架构,但回归的不是有符号距离函数(SDF),而是密度和颜色。然后,用(容易微分的)数值积分方法来近似真实的体渲染步骤。
NeRF模型将体场景表示存储为MLP的权重,并在许多有已知姿态的图像上进行训练。通过沿每条查看光线以规则间隔集成密度和颜色来渲染新视图。
NeRF非常详细渲染的原因之一是,使用周期性激活函数(periodic activation functions),即傅立叶特征,对光线上的3D点和相关视图方向进行编码。这一创新后来被推广到周期性激活函数的多层网络,即SIREN(SInusoidal- REpresentation Networks)。这两篇文章都发表在NeurIPS 2020上。
可以说,NeRF论文的影响在于其残酷的简单性:只需一个MLP在5D坐标下输出密度和颜色。有一些华丽点缀(bells and whistles),特别是位置编码和分层抽样方案,但惊讶于如此简单的架构可以产生如此令人印象深刻的结果。尽管如此,原始NeRF留下了许多改进的机会:
- 训练和渲染速度都很慢。
- 只能表示静态场景。
- 固定照明。
- 经过训练的NeRF表示不会推广到其他场景/目标。
一些项目/论文旨在改善原始NeRF论文的相当慢的训练和渲染时间。
- JaxNeRF(2020)用JAX支持(https://github.com/google/jax)多设备训练,从几天变成几小时,大大加快速度。
- AutoInt(2020)直接学习体积分,大大加快了渲染速度。
- Learned Initialization(2020)使用元学习来寻找良好的权重初始化,加快训练速度。
- DeRF(2020)将场景分解为“软 Voronoi图”,利用加速器内存架构。
- NERF++(2020)建议用单独的NERF对背景建模,处理无限场景。
- Neural Sparse Voxel Fields(2020)将场景组织为稀疏体素八叉树,将渲染速度提高10倍。
至少有四项工作侧重于动态场景:
- Nerfies(2020)及其底层D-NeRF对可变形视频建模,使用第二个MLP对视频的每一帧应用变形。
- D-NeRF(2020)与Nerfies论文非常相似,甚至使用相同的缩略词,但似乎限制了平移的变形。
- Neural Scene Flow Fields(2020)采用已知摄像机姿态的单目视频作为输入,深度预测作为先验,并输出场景流进行正则化,用于损失函数。
- Spatial-Temporal Neural Irradiance Field(2020)仅使用时间作为额外输入。要成功训练这种方法来渲染任意视点视频(来自RGB-D数据!),需要仔细选择损失函数。
- NeRFlow(2020)使用变形MLP对场景流建模,并跨时域进行积分,获得最终变形。
- NR NeRF(2020)还用变形MLP对非刚性场景建模。除了摄像机参数之外,它不依赖预计算的场景信息,但与Nerfies相比,生成的输出稍微不那么清晰。
- STaR(2021)将多视图RGB视频作为输入,并将场景分解为静态和动态体。但是,目前它只支持一个运动目标。
还有两篇论文关注人物的头像/肖像。
- PortraitNeRF(2020)创建静态NeRF风格的头像(Avatar),但仅用一个RGB拍摄图像。为了实现这一点,需要灯光舞台训练数据。
- DNRF(G2020)专注于4D Avatar,将变形面部模型纳入流水线,施加强烈的归纳偏差。
NeRF风格方法得到增强的另一个方面是如何处理照明,通常是通过可用于重照明场景的潜代码。
- NeRV(2020)用第二个“可见性”MLP支持任意环境照明和“一次反射”间接照明。
- NeRD(2020)是另一项工作,其中使用局部反射模型,此外,对于给定场景,去除低分辨率球面谐波照明。
- Neural Reflectance Fields(2020)通过添加局部反射模型改善NeRF,除密度外。它产生了令人印象深刻的重照明结果,尽管来自单点光源。
- NeRF-W(2020)是NeRF的首批后续工作之一,优化潜外观代码,以便能够从控制较少的多视图集合中学习神经场景表示。
潜代码也可用于编码形状先验:
- pixelNeRF(2020)更接近基于图像的渲染,其中在测试时用N个图像。它基于PIFu,创建像素对齐的特征,然后在评估NeRF-样式渲染器时进行插值。
- GRF(2020)在设置上非常接近pixelNeRF,但在规范空间而不是视图空间中运行。
- GRAF(2020),即“辐射场的生成模型”,是NeRF的条件变型,添加了外观和形状潜代码,同时通过GAN风格训练获得视点不变性。
- pi GAN(2020),与GRAF类似,但用了一种SIREN式样的NeRF实现,其中每一层都由不同的MLP输出进行调制,该MLP采用潜代码。
可以说,所有这些都不会扩展到由许多目标组成的大型场景,因此一个令人兴奋的新领域是如何将目标组成体渲染场景。
- Object-Centric Neural Scene Rendering(2020)在以目标为核心的坐标系中学习“目标散射函数”,允许使用蒙特卡洛渲染合成场景并真实地照亮场景。
- GIRAFFE(2020)通过以目标为中心的NeRF模型输出特征向量而不是颜色来支持合成,然后通过平均合成,并以低分辨率渲染为2D特征图,然后在2D中进行上采样。
- Neural Scene Graphs(2020)支持场景图中的多个以目标为中心的NeRF模型。
最后,至少有一篇论文在(已知)目标姿态估计的背景下使用了NeRF渲染。
- iNeRF(2020)在姿态估计框架中使用了NeRF MLP,甚至能够通过微调姿态改善标准数据集上的视图合成。然而,它还不能处理照明。
神经体渲染和NeRF风格的论文,最终是否会成功还远未可知。虽然现实世界中确实存在烟雾、烟雾、透明等,但最终大部分光线都从表面散射到眼睛中。由于基于体的方法,NeRF风格的网络可能很容易训练,但已经看到一种趋势,即论文试图在收敛后发现或猜测曲面。事实上,原NeRF论文中的分层抽样方案正是这样。因此,当从NeRF中学习时,可以很容易地看到移回SDF风格的隐式表示或甚至体素,至少在推理时是这样。
以上是神经体绘制:NeRF及其以外方法的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

热门话题

SQL 中通过使用 ALTER TABLE 语句为现有表添加新列。具体步骤包括:确定表名称和列信息、编写 ALTER TABLE 语句、执行语句。例如,为 Customers 表添加 email 列(VARCHAR(50)):ALTER TABLE Customers ADD email VARCHAR(50);

SQL 中添加列的语法为 ALTER TABLE table_name ADD column_name data_type [NOT NULL] [DEFAULT default_value]; 其中,table_name 是表名,column_name 是新列名,data_type 是数据类型,NOT NULL 指定是否允许空值,DEFAULT default_value 指定默认值。

提高 SQL 清空表性能的技巧:使用 TRUNCATE TABLE 代替 DELETE,释放空间并重置标识列。禁用外键约束,防止级联删除。使用事务封装操作,保证数据一致性。批量删除大数据,通过 LIMIT 限制行数。清空后重建索引,提高查询效率。

为新添加的列设置默认值,使用 ALTER TABLE 语句:指定添加列并设置默认值:ALTER TABLE table_name ADD column_name data_type DEFAULT default_value;使用 CONSTRAINT 子句指定默认值:ALTER TABLE table_name ADD COLUMN column_name data_type CONSTRAINT default_constraint DEFAULT default_value;

是的,DELETE 语句可用于清空 SQL 表,步骤如下:使用 DELETE 语句:DELETE FROM table_name;替换 table_name 为要清空的表的名称。

要使用 phpMyAdmin 创建数据表,以下步骤必不可少:连接到数据库并单击“新建”标签。为表命名并选择存储引擎(推荐 InnoDB)。通过单击“添加列”按钮添加列详细信息,包括列名、数据类型、是否允许空值以及其他属性。选择一个或多个列作为主键。单击“保存”按钮创建表和列。

Redis内存碎片是指分配的内存中存在无法再分配的小块空闲区域。应对策略包括:重启Redis:彻底清空内存,但会中断服务。优化数据结构:使用更适合Redis的结构,减少内存分配和释放次数。调整配置参数:使用策略淘汰最近最少使用的键值对。使用持久化机制:定期备份数据,重启Redis清理碎片。监控内存使用情况:及时发现问题并采取措施。

创建Oracle数据库并非易事,需理解底层机制。1. 需了解数据库和Oracle DBMS的概念;2. 掌握SID、CDB(容器数据库)、PDB(可插拔数据库)等核心概念;3. 使用SQL*Plus创建CDB,再创建PDB,需指定大小、数据文件数、路径等参数;4. 高级应用需调整字符集、内存等参数,并进行性能调优;5. 需注意磁盘空间、权限和参数设置,并持续监控和优化数据库性能。 熟练掌握需不断实践,才能真正理解Oracle数据库的创建和管理。
