目錄
為什麼需要自動駕駛光照模擬?
模擬系統的建構
模擬能力展示
总结和展望
首頁 科技週邊 人工智慧 真實、可控、可拓展,自動駕駛光照模擬平台LightSim上新了

真實、可控、可拓展,自動駕駛光照模擬平台LightSim上新了

Dec 15, 2023 pm 03:09 PM
模型 訓練

最近,Waabi AI、多倫多大學、滑鐵盧大學和麻省理工的研究者們在Neu​​rIPS 2023上提出了一個全新的自動駕駛光照模擬平台LightSim。研究者提出了一種從真實資料中產生配對光照訓練資料的方法,解決了資料缺失和模型遷移損失的問題。 LightSim利用神經輻射場(NeRF)和基於物理的深度網絡渲染車輛駕駛視頻,首次在大規模真實數據上實現了動態場景的光照仿真

真實、可控、可拓展,自動駕駛光照模擬平台LightSim上新了

  • 計畫網站:https://waabi.ai/lightsim
  • 論文連結:https://openreview.net /pdf?id=mcx8IGneYw

為什麼需要自動駕駛光照模擬?

在機器人技術中,相機模擬是非常重要的,特別是對於自動駕駛車輛感知室外場景。然而,現有的相機感知系統在遇到未經訓練的室外照明條件時表現不佳。透過使用相機模擬來產生多樣的室外照明變化資料集,可以提升自動駕駛系統的穩定性

#常見的相機模擬方法一般基於實體引擎。這種方法透過設定 3D 模型和照明條件來渲染場景。但往往仿真效果缺乏多樣性且不夠逼真。此外,由於高品質的 3D 模型數量有限,且物理渲染結果與真實世界場景不完全匹配。這導致訓練模型在真實資料上的泛化能力較差。

另一種方法是基於資料驅動的模擬方法。這種方法利用神經渲染技術重構真實世界的數位孿生,以複製感測器觀測到的資料。透過這種方法,我們可以更靈活地創建場景並提高真實感。然而,目前的技術將場景的照明資訊嵌入到3D模型中,這樣就限制了對數位孿生的編輯,例如改變照明條件或添加、刪除物體等操作

在NeurIPS 2023 的一篇工作中,來自Waabi AI 的研究者們展示了一個基於物理引擎和神經網路的光照模擬系統LightSim: Neural Lighting Simulation for Urban Scenes.

真實、可控、可拓展,自動駕駛光照模擬平台LightSim上新了

#與以往工作不同,LightSim能夠同時實現以下幾點:

#1. 真實(realistic): 第一次做到對大規模室外動態場景進行光照仿真,並且可以較為準確地模擬陰影、物體間的光照效果等。

2. 可控(controllable):支援動態駕駛場景的編輯(增加、刪除物件、相機位置和參數、改變光照、產生安全關鍵場景等等),從而產生更逼真且一致性更強的影片來提升系統對於光照和邊緣情況的穩健性。

3. 可擴展(scalable): 方便擴展到更多的場景和不同資料集中,只需要採集一次資料(single pass), 就能重新建構並進行真實可控的仿真測試。

真實、可控、可拓展,自動駕駛光照模擬平台LightSim上新了

模擬系統的建構

#第一步:建構真實世界的可重新照明數位孿生體

為了在數位世界中重建自動駕駛場景,LightSim 首先從採集的資料中劃分動態物件和靜態場景。這一步使用了 UniSim 來重建場景,並在網路中移除了相機視角依賴。再使用 marching cube 得到 geometry, 並進一步轉換為有基本材料的 mesh。

真實、可控、可拓展,自動駕駛光照模擬平台LightSim上新了

#

除了材質和幾何,LightSim 還能夠根據室外白天場景的主要光源太陽和天空,估算室外照明,得到高動態範圍的環境圖(HDR Sky dome)。借助感測器數據和提取的幾何體,LightSim 可以估算出一個不完整的全景影像,然後補全它,以獲得全方位 360° 的天空視圖。從而利用這個全景影像和 GPS 資訊產生 HDR 環境圖,準確估算出太陽強度、太陽方向和天空外觀。

真實、可控、可拓展,自動駕駛光照模擬平台LightSim上新了


#重述內容:第二步驟是進行動態城市場景的神經照明模擬

在得到數位孿生體後,可以進一步對其進行修改,例如增加或移除物體,改變車輛軌跡或更改照明等,以產生擴增實境的表徵。 LightSim 將執行基於物理的渲染,產生有關修改場景的照明相關數據,如基本色彩、深度、法向量和陰影。利用這些與照明相關的數據以及場景來源和目標照明條件的估算,LightSim 的工作流程如下所示。

真實、可控、可拓展,自動駕駛光照模擬平台LightSim上新了

儘管基於物理的渲染影像能夠很好地重建場景中的照明效果,但由於幾何形狀的不完美以及材料/照明分解中的誤差,渲染結果往往缺乏真實感,例如模糊、不真實的表面反射和邊界偽影。因此,研究人員提出了增強真實感的神經延遲渲染。他們引入了一個影像合成網絡,利用預計算緩衝區中的來源影像和渲染引擎產生的照明相關數據,產生最終的影像。同時,論文中的方法也為網路提供了環境圖,以增強照明上下文,並透過數位孿生體生成了成對圖像,提供了一種新穎的成對模擬和真實數據訓練方案

模擬能力展示

改變場景的光照(Scene Relighting)

LightSim 可以在新的光照條件下以時間一致的方式渲染相同場景。如影片所示,新的太陽位置和天空外觀會導致場景的陰影和外觀發生變化。

LightSim可以自動對場景進行大量重新照明。它可以從估計和真實的HDR環境圖中產生與原始場景相同的新的、時​​間一致的、3D感知的照明變化

##影像修正(Image Correction)

LightSim的照明表示是可編輯的,可以改變太陽的方向,從而更新與太陽光方向相關的照明變化和陰影。透過旋轉HDR環境圖並將其傳遞給神經延遲渲染模組,LightSim產生以下影片

#LightSim也支援批次編輯陰影功能

光照感知角色插入(Lighting-Aware Character Insertion)

#除了修改照明之外,LightSim 還可以對不常見的物件(例如建築障礙物)執行照明感知的添加。這些新增的物件可以更新物件的照明陰影、做到準確遮擋物體以及與整個相機配置的空間適配。

模擬遷移(Generalization to nuScenes)

由於LightSim的神經延遲渲染網絡是在多個駕駛影片上進行訓練的,所以LightSim可以推廣到新場景中。以下影片展示了LightSim在nuScenes中駕駛場景的泛化能力。 LightSim可以為每個場景建立照明感知數位孿生,然後應用於在PandaSet上預先訓練的神經延遲渲染模型。 LightSim的遷移性能良好,並且可以為場景重新照明提供較為穩健的解決方案

#真實可控的相機模擬

綜合以上所展示的所有功能,LightSim 實現了可控、多樣化且逼真的相機模擬。以下影片展示了 LightSim 的場景模擬效能。在影片中,一輛白色的車緊急變換車道至SDV 車道,引入了新的路障,這使得白色車輛進入了產生一個全新的場景,在新場景的多種照明條件下 LightSim 生成的效果如下所示。

在下面的视频中,演示了一个新的实例。在现有的道路障碍中插入了新的障碍,并增加了一组新的车辆。通过使用LightSim进行仿真光照,使得新加入的车辆能够完美地融入到场景中

总结和展望

LightSim是一個可感知光照的相機模擬平台,提供處理大規模動態駕駛場景的服務。它能夠根據現實世界的數據構建可感知照明的數字孿生體,並對其進行修改,以創建具有不同物體布局、自動駕駛車視角的新場景。LightSim能夠模擬新的照明條件,實現多樣化、真實且可控的相機模擬,從而生成時間/空間一致的視頻。值得注意的是,LightSim還可以結合逆向渲染、天氣模擬等技術,進一步提升模擬性能

以上是真實、可控、可拓展,自動駕駛光照模擬平台LightSim上新了的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計! 開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計! Apr 03, 2024 pm 12:04 PM

0.這篇文章乾了啥?提出了DepthFM:一個多功能且快速的最先進的生成式單目深度估計模型。除了傳統的深度估計任務外,DepthFM還展示了在深度修復等下游任務中的最先進能力。 DepthFM效率高,可以在少數推理步驟內合成深度圖。以下一起來閱讀這項工作~1.論文資訊標題:DepthFM:FastMonocularDepthEstimationwithFlowMatching作者:MingGui,JohannesS.Fischer,UlrichPrestel,PingchuanMa,Dmytr

全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 Apr 26, 2024 am 11:37 AM

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP

超級智能體生命力覺醒!可自我更新的AI來了,媽媽再也不用擔心資料瓶頸難題 超級智能體生命力覺醒!可自我更新的AI來了,媽媽再也不用擔心資料瓶頸難題 Apr 29, 2024 pm 06:55 PM

哭死啊,全球狂煉大模型,一網路的資料不夠用,根本不夠用。訓練模型搞得跟《飢餓遊戲》似的,全球AI研究者,都在苦惱怎麼才能餵飽這群資料大胃王。尤其在多模態任務中,這問題尤其突出。一籌莫展之際,來自人大系的初創團隊,用自家的新模型,率先在國內把「模型生成數據自己餵自己」變成了現實。而且還是理解側和生成側雙管齊下,兩側都能產生高品質、多模態的新數據,對模型本身進行數據反哺。模型是啥?中關村論壇上剛露面的多模態大模型Awaker1.0。團隊是誰?智子引擎。由人大高瓴人工智慧學院博士生高一鑷創立,高

See all articles