原標題:Light the Night: A Multi-Condition Diffusion Framework for Unpaired Low-Light Enhancement in Autonomous Driving
論文連結:https://arxiv.org/pdf/2404.04804.pdf
作者單位:克利夫蘭州立大學德州大學奧斯汀分校A*STAR 紐約大學加州大學洛杉磯分校
LightDiff 是一種為自動駕駛的視覺中心感知系統提升效益和可擴展性的技術。相較於雷射雷達系統,最近受到了相當多的關注。然而,這些系統在低光照條件下常常會遇到困難,可能會影響其性能和安全性。為了解決這個問題,本文介紹了 LightDiff,這是一個為自動駕駛應用中提升低光照影像品質而設計的自動化框架。具體來說,本文採用了一個多條件控制的擴散模型。 LightDiff 無需人工收集的成對數據,而是利用動態數據退化過程。它結合了一個新穎的多條件適配器,該適配器能夠自適應地控制來自不同模態的輸入權重,包括深度圖、RGB圖像和文字標題,以在低光照和光照條件下同時保持內容的一致性。此外,為了使增強型的圖像和檢測模型的知識相匹配,LightDiff 使用特定於感知的評分作為獎勵,透過強化學習來指導擴散訓練過程。在 nuScenes 資料集上進行的廣泛實驗表明,LightDiff 能夠顯著提高多個最新的3D偵測器在夜間條件下的性能,並同時實現高視覺品質評分,凸顯了其在保障自動駕駛安全方面的潛力。
本文提出了Lighting Diffusion (LightDiff)模型,以增強自動駕駛中的低光照相機影像,減少了對大量夜間資料收集的需求,並保持了白天的性能能力。
本文整合了包括深度圖和圖像標題在內的多種輸入模式,並提出了一個多條件適配器,以確保圖像轉換中的語義完整性,同時保持高視覺品質。本文採用了一個實用的過程,從白天資料生成晝夜影像對,以實現高效的模型訓練。
本文介紹了一種使用強化學習的微調機制,結合了感知定制的領域知識(可信的雷射雷達和統計分佈的一致性),以確保擴散過程具有利於人類視覺感知的強度,並利用感知模型進行感知模型。此方法在人類視覺感知方面具有顯著優勢,同時也具有感知模型的優勢。
在nuScenes資料集上進行的廣泛實驗表明,LightDiff 顯著提高了夜間3D車輛輛偵測的效能,並在多個視角指標上超越了其他生成模型。
#圖1。夜間駕駛場景比白天更具致命威脅。夜間的致命率要高得多[4]。本文旨在增強夜間影像,以提高夜間駕駛的整體安全性。
如圖1所示,夜間駕駛對人類來說是具有挑戰性的,對於自動駕駛汽車來說更是如此。 2018年3月18日,一起災難性的事件突顯了這項挑戰,當時 Uber Advanced Technologies Group 的一輛自動駕駛汽車在亞利桑那州撞擊並致死了一名行人[37]。這起事件是由於車輛未能在低光照條件下準確檢測到行人而引起的,它將自動駕駛汽車的安全問題推到了前沿,尤其是在這樣要求苛刻的環境中。隨著以視覺為中心的自動駕駛系統越來越多地依賴相機感測器,解決低光照條件下的安全隱患已經變得越來越關鍵,以確保這些車輛的整體安全。
一種直覺的解決方案是收集大量的夜間駕駛數據。然而,這種方法不僅勞動密集、成本高昂,而且由於夜間與白天影像分佈的差異,還有可能損害白天模型的表現。為了應對這些挑戰,本文提出了 Lighting Diffusion (LightDiff )模型,這是一種新穎的方法,它消除了手動資料收集的需求,並保持了白天模型的性能。
LightDiff 的目標是增強低光相機影像,提高感知模型的效能。透過使用動態的低光衰減過程,LightDiff 從現有的白天資料產生合成的晝夜影像對進行訓練。接著,本文採用了 Stable Diffusion [44]技術,因為它能夠產生高品質的視覺效果,有效地將夜間場景轉換成白天的等效物。然而,在自動駕駛中保持語義一致性至關重要,這是原始 Stable Diffusion 模型面臨的挑戰。為了克服這一點,LightDiff 結合了多種輸入模態,例如估計的深度圖和相機影像標題,配合一個多條件適配器。這個適配器智慧地確定每種輸入模態的權重,確保轉換影像的語義完整性,同時保持高視覺品質。為了引導擴散過程不僅朝著對人類視覺更亮的方向,而且對感知模型也是如此,本文進一步使用強化學習對本文的 LightDiff 進行微調,循環中加入了為感知量身定制的領域知識。本文在自動駕駛資料集nuScenes [7]上進行了廣泛的實驗,並證明了本文的LightDiff 可以顯著提高夜間3D車輛偵測的平均精度(AP),分別為兩個最先進模型BEVDepth [32]和BEVStereo [31]提高了4.2%和4.6%。
圖2. 本文的 Lighting Diffusion 模型(LightDiff )的架構。在訓練階段,一個訓練資料產生流程使得無需任何人工收集的配對資料就能取得三模態資料。本文的 LightDiff 使用了一個多條件適配器來動態加權多種條件,結合雷射雷達和分佈獎勵建模(LDRM),允許以感知為導向的控制。
圖3. 本文的訓練資料產生流程。低光照退化轉換[9]僅在訓練階段實施。訓練好的深度估計網路將被凍結,用於本文 Lighting Diffusion 模型的訓練和測試階段。
圖4. 循環照明推理(Recurrent Lighting Inference)的示意圖。其設計旨在提高生成文字提示和深度圖的精確度,從而減輕對暗圖像的不利影響。
圖5. 在 nuScenes 驗證集中的夜間影像範例上的視覺對比。
圖6. 在 nuScenes 驗證集中的夜間影像範例上的三維偵測結果視覺化。本文使用 BEVDepth [32] 作為三維偵測器,並視覺化相機的正視圖和鳥瞰圖(Bird’s-Eye-View)。
圖7. 展示本文的 LightDiff 在有無多條件適配器(MultiCondition Adapter)的情況下的視覺效果。 ControlNet [55]的輸入保持一致,包括相同的文字提示和深度圖。多條件適配器在增強過程中實現了更好的顏色對比和更豐富的細節。
圖8. 不同模態輸入的注意力圖範例。
圖9. 透過循環照明推理(Recurrent Lighting Inference, ReLI)增強多模態產生的示意圖。透過呼叫一次 ReLI,提高了文字提示和深度圖預測的準確性。
本文介绍了 LightDiff ,这是一个为自动驾驶应用设计的、针对特定领域的框架,旨在提高低光照环境下图像的质量,减轻以视觉为中心的感知系统所面临的挑战。通过利用动态数据退化过程(dynamic data degradation process)、针对不同输入模态的多条件适配器,以及使用强化学习的感知特定评分引导奖励建模,LightDiff 显著提升了 nuScenes 数据集夜间的图像质量和3D车辆检测性能。这一创新不仅消除了对大量夜间数据的需求,还确保了图像转换中的语义完整性,展示了其在提高自动驾驶场景中的安全性和可靠性方面的潜力。在没有现实的成对昼夜图像的情况下,合成带有车灯的暗淡驾驶图像是相当困难的,这限制了该领域的研究。未来的研究可以集中在更好地收集或生成高质量训练数据上。
@ARTICLE{2024arXiv240404804L,
author = {{Li}, Jinlong and {Li}, Baolu and {Tu}, Zhengzhong and {Liu}, Xinyu and {Guo}, Qing and {Juefei-Xu}, Felix and {Xu}, Runsheng and {Yu}, Hongkai},
title = "{Light the Night: A Multi-Condition Diffusion Framework for Unpaired Low-Light Enhancement in Autonomous Driving}",
journal = {arXiv e-prints},
keywords = {Computer Science - Computer Vision and Pattern Recognition},
year = 2024,
month = apr,
eid = {arXiv:2404.04804},
pages = {arXiv:2404.04804},
doi = {10.48550/arXiv.2404.04804},
archivePrefix = {arXiv},
eprint = {2404.04804},
primaryClass = {cs.CV},
adsurl = {https://ui.adsabs.harvard.edu/abs/2024arXiv240404804L},
adsnote = {Provided by the SAO/NASA Astrophysics Data System}
}
以上是CVPR\'24 | LightDiff:低光照場景下的擴散模型,直接照亮夜晚!的詳細內容。更多資訊請關注PHP中文網其他相關文章!