CVPR 2024 | 借助神經結構光,浙大實現動態三維現象的即時擷取重建

WBOY
發布: 2024-05-06 14:50:14
轉載
786 人瀏覽過

CVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建

AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com。

煙霧等動態三維物理現象的高效高品質重建是相關科學研究中的重要議題,在空氣動力學設計驗證中,氣像三維觀測等領域有著廣泛的應用前景。透過集重建隨時間變化的三維密度序列,可以幫助科學家更好地理解與驗證實際世界中的各類複雜物理現象。

CVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建

圖1展示了觀測動態三維物理現象對科學研究的重要性。圖為全球最大風洞NFAC對商用卡車實體進行空氣動力學實驗。

然而,在現實世界中快速取得並高品質重建動態三維密度場相當困難。首先,三維資訊難以透過常見的二維影像感測器(如相機)直接測量。此外,高速變化的動態現象對物​​理採集能力提出了很高的要求:需要在很短的時間內完整截取單一三維密度場的完整取樣,否則三維密度場本身將會改變。這裡的根本挑戰是如何解決測量樣本本身和動態三維密度場重建結果之間的資訊量差距。

目前主流研究工作透過先驗知識彌補測量樣本資訊量不足,計算代價高,且當先驗條件不滿足時重建品質不佳。與主流研究思路不同,浙江大學電腦輔助設計與圖形系統全國重點實驗室的研究團隊認為解決難題的關鍵在於提高單元測量樣本的資訊量。

該研究團隊不僅利用AI優化重建演算法,還透過AI幫助設計物理採集方式,實現同一目標驅動的全自動軟硬體聯合優化,從本質上提高單元測量樣本關於目標對象的信息量。透過對真實世界中的物理光學現象進行仿真,讓人工智慧自己決定如何投射結構光,如何擷取對應的影像,以及如何從取樣本中重建出動態三維密度場。最終,研究團隊僅使用包含單投影機和少量相機(1或3台)的輕量級硬體原型,把建模單一三維密度場(空間解析度128x128x128)的結構光圖案數量降到6張,實現每秒40個三維密度場的高效採集集。

團隊在重建演算法中創新地提出輕量級一維解碼器,將局部輸入光作為解碼器輸入的一部分,在不同相機所拍攝的不同素材下共用了解碼器參數,大幅降低網路的複雜程度,提高運算速度。為融合不同相機的解碼結果,又設計了結構簡單的3D U-Net融合網路。最終重建單一三維密度場僅需9.2毫秒,相對於SOTA研究工作,重建速度提升了2-3個數量級,實現了三維密度場的即時高品質重建。相關研究論文《Real-time Acquisition and Reconstruction of Dynamic Volumes with Neural Structured Illumination》已被電腦視覺領域頂尖國際學術會議CVPR 2024接收。

CVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建

  • 論文連結:https://svbrdf.github.io/publications/realtimedynamic/realtimedynamic.pdf

  • #研究首頁:https://svbrdf.github.io/publications/realtimedynamic/project.htmlCVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建

##################################################### ###相關工作#########根據採集過程中是否控制光照可以把相關工作分成以下兩大類。 ###

第一類基於非可控光照的工作不需要專門的光源,在採集過程中不控制光照,因此對採集條件要求較寬鬆 [2,3]。由於單視角相機拍攝到的是三維結構的二維投影,因此難以高品質區分不同的三維結構。對此,一種想法是增加擷取視角取樣數,例如使用密集相機陣列或光場相機,這會導致高昂的硬體成本。另一種想法仍然在視角域稀疏採樣,透過各類先驗資訊來填補資訊量缺口,如啟發式先驗、物理規則或從現有資料中學習的先驗知識。一旦先驗條件在實際中不滿足,這類方法的重建結果會品質下降。此外,其計算開銷過於昂貴,無法支援即時重建。

第二類工作採用可控光照,在採集過程中對光照條件進行主動控制 [4,5]。此類工作對光照進行編碼以更主動地探測物理世界,也減少對先驗的依賴,從而獲得更高的重建品質。根據同時使用單燈或多燈,相關工作可以進一步分類為掃描方法和光照多重化方法。對於動態的實體對象,前者必須透過使用昂貴的硬體來達到高掃描速度,或犧牲結果的完整性來減少擷取負擔。後者透過同時對多個光源進行編程,顯著提高了採集效率。但是對於高品質的快速即時密度場,已有方法的取樣效率仍然不足 [5]。

浙大團隊的工作屬於第二類。和大多數現有工作不同的是,本研究工作利用人工智慧來聯合優化物理採集(即神經結構光)與計算重建,從而實現高效高品質動態三維密度場建模。

硬體原型

研究團隊建造由單一商用投影機(BenQ X3000:解析度1920×1080, 速度240fps)和三個工業相機(Basler acA1440- 220umQGR:由解析度1440×1080, 速度240fps)組成的簡單硬體原型(如圖3 所示)。透過投影機循環投射 6 個預先訓練得到的結構光圖案,三個相機同步進行拍攝,並基於相機所擷取的影像進行動態三維密度場重建。四個設備相對於採集物件的角度是由不同模擬實驗模擬後所選出的最優排布。

CVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建

圖 3:擷取硬體原型。 (a)硬體原型實拍圖,其中載物台上的三個白色標記(tags)用於同步相機和投影機。 (b)相機、投影機與拍攝對象之間幾何關係的示意圖(頂部視角)。

軟體處理

研發團隊設計由編碼器、解碼器和聚合模組組成的深度神經網路。其編碼器中的權重直接對應採集期間的結構光照亮度分佈。解碼器以單像素上測量樣本為輸入,預測一維密度分佈並內插至三維密度場。聚合模組將每個相機所對應解碼器預測的多個三維密度場組合成最終的結果。透過使用可訓練結構光以及和輕量級一維解碼器,本研究更容易學習到結構光圖案,二維拍攝照片和三維密度場三者之間的本質聯繫,不容易過度擬合到訓練數據中。以下圖 4 顯示整體管線,圖 5 顯示相關網路結構。

CVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建

圖4:整體採集重建管線(a),以及從結構光圖案到一維局部入射光(b) 和從預測的一維密度分佈回到三維密度場(c) 的重採樣過程。研究從模擬 / 真實的三維密度場開始,首先將預先最佳化的結構光圖案(即編碼器中的權重)投影到該密度場。對於每個相機視圖中的每個有效像素,將其所有測量值以及重採樣的局部入射光送給解碼器,以預測對應相機光線上的一維密度分佈。然後收集一台相機的所有密度分佈並將其重採樣到單一三維密度場中。在多相機情況下,研究融合每台相機的預測密度場以獲得最終結果。

CVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建

                               圖 上中:網路 3 個主要元件中的程式設計工具、解碼器和模組解碼器。

結果展示

圖 6 展示本方法對四個不同動態場景的部分重建結果。為產生動態水霧,研究人員將乾冰添加到裝有液態水的瓶子中製造水霧,並透過閥門控制流量,並使用橡膠管將其進一步引導至採集裝置。

CVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建

圖 6:不同動態場景的重建結果。每一行是某水霧序列中選取部分重建影格的視覺化結果,從上到下場景水霧源數分別為:1,1,3 和 2。如左上方的橘色標註所示,A,B,C 分別對應三個輸入相機所擷取的影像,D 為和重建結果渲染視角類似的實拍參考影像。時間戳在左下角展示。詳細的動態重建結果請參考論文影片。

為了驗證本研究的正確性和質量,研究團隊在真實靜態物體上把本方法和相關 SOTA 方法進行對比(如圖 7 所示)。圖 7 也同時對不同相機數量下的重建品質進行比較。所有重建結果在相同的未採集過的新視角下繪製,並由三個評估指標進行定量評估。由圖 7 可知,得益於對採集效率的優化,本方法的重建品質優於 SOTA 方法。

CVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建

圖 7:不同技巧在真實靜態物件上的比較。從左到右是光學層切方法[4],本方法(三相機),本方法(雙相機),本方法(單相機),單相機下使用手工設計的結構光[5],SOTA 的PINF [3] 和GlobalTrans [2] 方法的重建結果視覺化。以光學層切結果為基準,對於所有其他結果,其定量誤差列在對應影像的右下角,以三種指標 SSIM/PSNR/RMSE (×0.01) 來評估。所有重建密度場均使用非輸入視圖進行渲染,#v 表示採集的視圖數量,#p 表示所用結構光圖案的數量。

研究團隊也在動態模擬資料上對不同方法的重建品質進行定量比較。圖 8 展示模擬菸霧序列的重建品質比較。詳細的逐幀重建結果請參考論文影片。

CVPR 2024 | 借助神经结构光,浙大实现动态三维现象的实时采集重建

圖 8:不同方法在模擬煙霧序列上的比較。由左至右依序為真實值,本方法,PINF [3] 和 GlobalTrans [2] 重建結果。輸入視圖和新視圖的渲染結果分別顯示在第一行和第二行。定量誤差 SSIM/PSNR/RMSE (×0.01) 顯示在對應影像的右下角。整個重建序列的誤差平均值請參考論文補充資料。另外,整個序列的動態重建結果請參考論文影片。

未來展望

研究團隊計畫在更先進的採集設備(如光場投影機[6])上應用本方法開展動態採集重建。團隊也期望透過採集更豐富的光學資訊(如偏振狀態),從而進一步減少採集所需的結構光圖案數量和相機數量。除此之外,將本方法與神經表現(如 NeRF)結合也是團隊感興趣的未來發展方向之一。最後,讓AI 更主動參與對物理採集與計算重建的設計,不局限於後期軟體處理,這可能能為進一步提升物理感知能力提供新的思路,最終實現不同複雜物理現象的高效高品質建模。

參考資料:

#[1]. Inside the World's Largest Wind Tunnel https://youtu.be /ubyxYHFv2qw?si=KK994cXtARP3Atwn

[2]. Erik Franz, Barbara Solenthaler, and Nils Thuerey. Global transport for fluid reconstruction with learned haler, and Nils Thuerey. Global transport for fluid reconstruction with learned haler, and Nils Thuerey. Global transport for fluid reconstruction with learned haler, and Nils Thuerey. Global transport for fluid reconstruction with learned haler, and Nils Thuerey. Global transport for fluid pages 1632–1642, 2021.

[3]. Mengyu Chu, Lingjie Liu, Quan Zheng, Erik Franz, HansPeter Seidel, Christian Theobalt, and Rhaleb Zayer . Physics informed neural fields for smoke reconstruction with sparse data. ACM Transactions on Graphics, 41 (4):1–14, 2022.

[4]. Tim Hawkins, Per Einarsson, and Paul Debevec. Acquisition of time-varying participating media. ACM Transactions on Graphics, 24 (3):812–815, 2005.

[5]. Jinwei Gu, Shree K. Nayar, Eitan Grinspun, Peter N. Belhumeur,and Ravi Ramamoorthi. Compressive structured light for recovering inhomogeneous participating media.IEEE Transactions on Pattern Analysis and Machine Intelligencegeneous participating media.IEEE Transactions on Pattern Analysis and Machine Intelligence,35 (3):1 –1, 2013.

[6]. Xianmin Xu, Yuxin Lin, Haoyang Zhou, Chong Zeng, Yaxin Yu, Kun Zhou, and Hongzhi Wu. A unified spatial-angular structured light for single-view acquisition of shape and reflectance. In CVPR, pages 206–215, 2023.

#

以上是CVPR 2024 | 借助神經結構光,浙大實現動態三維現象的即時擷取重建的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:jiqizhixin.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!