當 4K 畫質、60 幀影片在某些 APP 上還只能開會員觀看時,AI 研究者已經把 3D 動態合成影片做到了 4K 級別,而且畫面相當流暢。
在現實生活中,我們接觸的大多數影片都是 2D 的。在觀看這種影片時,我們是沒有辦法選擇觀看視角的,例如走到演員中間,或是走到空間的某個角落。 VR、AR 設備的出現彌補了這一缺陷,它們提供的 3D 影片允許我們變換視角、甚至隨意走動,沉浸感大大提升。
但是,這種 3D 動態場景的合成一直是個難點,無論是在畫質上還是流暢度上。
最近,來自浙江大學、像衍科技和螞蟻集團的研究者對這個問題發起了挑戰。在一篇題為「4K4D: Real-Time 4D View Synthesis at 4K Resolution」的論文中,他們提出了一種名為4K4D的點雲表示方法,大大提升了高解析度3D動態場景合成的渲染速度。具體來說,使用 RTX 4090 GPU,他們的方法能以 4K 解析度進行渲染,幀率可達80 FPS;以1080p解析度進行渲染時,幀率可達400FPS。整體來看,它的速度是以前方法的30多倍,而且渲染品質達到了SOTA。
以下是論文簡介。
專案連結:https://zju3dv.github.io/4k4d/
動態視圖合成旨在從捕獲的影片中重建動態3D 場景,並建立沉浸式虛擬回放,這是電腦視覺和電腦圖形學中長期研究的問題。這種技術實用性的關鍵在於它能夠以高保真度即時渲染,使其能夠應用於 VR/AR、體育廣播和藝術表演捕捉。傳統方法將動態 3D 場景表示為紋理網格序列,並使用複雜的硬體進行重建。因此,它們通常僅限於受控環境。
最近,隱式神經表示在透過可微渲染從 RGB 視訊重建動態 3D 場景方面取得了巨大成功。例如《Neural 3d video synthesis from multi-view video》將目標場景建模為動態輻射場,利用體渲染合成影像,並與輸入影像進行對比最佳化。儘管動態視圖合成結果令人印象深刻,但由於網路評估昂貴,現有方法通常需要幾秒鐘甚至幾分鐘才能以 1080p 解析度渲染一張影像。 ###受靜態視圖合成方法的啟發,一些動態視圖合成方法透過降低網路評估的成本或次數來提高渲染速度。透過這些策略,MLP Maps 能夠以 41.7 fps 的速度渲染前景動態人物。然而,渲染速度的挑戰仍然存在,因為 MLP Maps 的即時效能只有在合成中等解析度(384×512)的影像時才能實現。當渲染 4K 解析度的影像時,它的速度降低到只有 1.3 FPS。 ############在這篇論文中,研究者提出了新的神經表示 ——4K4D,用於建模和渲染動態 3D 場景。如圖 1 所示,4K4D 在渲染速度上明顯優於先前的動態視圖合成方法,同時在渲染品質上具有競爭力。 ################
作者表示,他們的核心創新在於 4D 點雲表示和混合外觀模型。具體而言,對於動態場景,他們使用空間雕刻演算法來獲得粗點雲序列,並將每個點的位置建模為可學習向量。他們還引入 4D 特徵網格,為每個點分配特徵向量,並將其輸入 MLP 網絡,以預測點的半徑、密度和球諧函數(SH)係數。 4D 特徵網格自然地在點雲上應用了空間正則化,使得最佳化更加穩健。基於 4K4D,研究者開發了一種可微深度剝離演算法,利用硬體光柵化實現前所未有的渲染速度。
研究者發現,基於 MLP 的 SH 模型難以表示動態場景的外觀。為了緩解這個問題,他們還引入了一個影像混合模型來與 SH 模型結合,以表示場景的外觀。一個重要的設計是,他們使圖像混合網路獨立於觀看方向,因此可以在訓練後預先計算,以提高渲染速度。作為一把雙刃劍,該策略使影像混合模型沿著觀看方向離散。使用連續 SH 模型可以彌補這個問題。與僅使用 SH 模型的 3D Gaussian Splatting 相比,研究者提出的混合外觀模型充分利用了輸入影像擷取的信息,從而有效地提高了渲染品質。
為了驗證新方法的有效性,研究者在多個廣泛使用的多視圖動態新視圖合成資料集上評估了4K4D,包括NHR、ENeRF-Outdoo、DNA- Rendering 和Neural3DV。廣泛的實驗表明,4K4D 不僅渲染速度快了幾個數量級,而且在渲染品質方面也明顯優於 SOTA 技術。使用 RTX 4090 GPU,新方法在 DNA-Rendering 資料集上達到 400 FPS,解析度為 1080p;在 ENeRF-Outdoor 資料集上達到 80 FPS,解析度為 4k。
給定捕獲動態 3D 場景的多視圖視頻,本文旨在重建目標場景並即時地進行視圖合成。模型架構圖如圖2 所示:
接著文中介紹了用點雲建模動態場景的相關知識,他們從4D 嵌入、幾何模型以及外觀模型等角度展開。
4D 嵌入:給定目標場景的粗點雲,本文使用神經網路和特徵網格表示其動態幾何和外觀。具體來說,本文首先定義了六個特徵平面θ_xy、θ_xz、θ_yz、θ_tx、θ_ty 和θ_tz,並採用K-Planes 策略,利用這六個平面來建模一個4D 特徵場Θ(x, t):
幾何模型:基於粗點雲,動態場景幾何結構透過學習每個點上的三個屬性( entries)來表示,即位置p ∈ R^3 、半徑r ∈ R 和密度σ ∈ R。然後藉助這些點,計算空間點 x 的體積密度。點位置 p 被建模為可最佳化的向量。透過將 Eq.(1) 中的特徵向量 f 饋送到 MLP 網路中來預測半徑 r 和密度 σ。
外觀模型:如圖2c 所示,本文使用影像混合技術和球諧函數(SH)模型來建立混合外觀模型,其中影像混合技術表示離散視圖外觀c_ibr, SH 模型表示連續的依賴視圖的外觀c_sh。對於第t 訊框處的點x,其在視圖方向d 上的顏色為:
可微深度剝離
本文提出的動態場景表示借助深度剝離演算法可以渲染成影像。
研究者開發了一個自訂著色器來實現由 K 個渲染通道組成的深度剝離演算法。即對於一個特定的像素 u,研究者進行了多步驟處理,最後,經過 K 次渲染後,像素 u 得到一組排序點 {x_k|k = 1, ..., K}。
基於這些點{x_k|k = 1, ..., K},得到體渲染中像素u 的顏色表示為:
在訓練過程中,給定渲染的像素顏色C (u),本文將其與真實像素顏色C_gt (u) 進行比較,並使用以下損失函數以端到端的方式優化模型:
除此之外,本文也應用了知覺損失:
##以及掩碼損失:
最終的損失函數定義為:
本文在DNA-Rendering、ENeRF-Outdoor、 NHR 以及Neural3DV 資料集評估了4K4D 方法。
在DNA-Rendering 資料集上的結果如表1 所示,結果顯示,4K4D 渲染速度比具有SOTA 效能的ENeRF 快30 倍,並且渲染品質更好。
在DNA-Rendering 資料集上的定性結果如圖5 所示,KPlanes 無法對4D 動態場景下的詳細外觀和幾何形狀進行恢復,而其他基於圖像的方法產生了高品質的外觀。然而,這些方法往往會在遮蔽和邊緣周圍產生模糊的結果,導致視覺品質下降,相反,4K4D 可以在超過 200 FPS 的情況下產生更高保真度的渲染。
接下來,實驗展示了不同方法在 ENeRFOutdoor 資料集上的定性和定量結果。如表 2 所示,4K4D 在以超過 140 FPS 的速度進行渲染時仍然取得了明顯更好的結果。
而其他方法,如ENeRF 產生了模糊的結果;IBRNet 的渲染結果包含影像邊緣周圍的黑色偽影,如圖3 所示;K-Planse 無法重建動態人體以及不同的背景區域。
表 6 展示了可微深度剝離演算法的有效性,4K4D 比基於 CUDA 的方法快 7 倍以上。
本文也在表 7 中報告了 4K4D 在不同解析度的不同硬體(RTX 3060、3090 和 4090)上的渲染速度。
更多細節請參考原論文。
以上是4K畫質3D合成影片不再卡成投影片,新方法將渲染速度提高了30倍的詳細內容。更多資訊請關注PHP中文網其他相關文章!