逆天UniVision:BEV檢測和Occ聯合統一框架,雙SOTA!
寫在前面&個人理解
近年來,自動駕駛技術中以視覺為中心的3D感知迅速取得進展。儘管各種3D感知模型在結構和概念上有許多相似之處,但在特徵表示、資料格式和目標方面仍存在一些差異,這給統一高效的3D感知框架設計帶來了挑戰。因此,研究人員正努力尋找解決方案,以便更好地整合不同模型之間的差異,從而建立更完善和更有效率的3D感知系統。這種努力可望為自動駕駛領域帶來更可靠和先進的技術,使其在複雜環境下具備更強
特別是BEV下的檢測任務和Occupancy任務,想做好聯合訓練,還是很難的,不穩定和效果不可控讓很多應用頭大。 UniVision是一個簡單且有效率的框架,它統一了以視覺為中心的3D感知中的兩個主要任務,即佔用預測和目標偵測。核心點是一個用於互補2D-3D feature transformation的顯式-隱式視圖變換模組,UniVision提出了一個局部全局特徵提取和融合模組,用於高效和自適應的體素和BEV特徵提取、增強和交互。
在資料增強部分,UniVision也提出了一種聯合佔用偵測資料增強策略和漸進式loss weight調整策略,以提高多任務框架訓練的效率和穩定性。在四個公共基準上對不同的感知任務進行了廣泛的實驗,包括無場景雷射雷達分割、無場景檢測、OpenOccupancy和Occ3D。 UniVision在每個基準上分別以 1.5 mIoU、 1.8 NDS、 1.5 mIoU和 1.8 mIoU的增益實現了SOTA。 UniVision框架可以作為統一的以視覺為中心的3D感知任務的高性能基準。
如果對BEV和Occupancy任務不熟悉的同學,也歡迎大家進一步學習我們的BEV感知教程和Occupancy佔用網絡教程,了解更多技術細節!
目前3D感知領域的狀態
3D感知是自動駕駛系統的首要任務,其目的是利用一系列感測器(如光達、雷達和相機)所獲得的數據來全面了解駕駛場景,用於後續的規劃和決策。過去,由於來自點雲資料的精確3D訊息,3D感知領域一直由基於雷射雷達的模型主導。然而,基於光達的系統成本高昂,容易受到惡劣天氣的影響,而且部署起來不方便。相較之下,基於視覺的系統具有許多優點,如低成本、易於部署和良好的可擴展性。因此,以視覺為中心的三維感知引起了研究者的廣泛關注。
最近,透過特徵表示變換、時間融合和監督訊號設計,基於視覺的3D檢測得到了顯著改進,不斷縮小了與基於光達的模型的差距。除此之外,近年來基於視覺的佔用任務得到了快速發展。與使用3D box來表示一些目標不同,佔用率可以更全面地描述駕駛場景的幾何和語義,並且不太局限於目標的形狀和類別。
儘管檢測方法和占用方法在結構和概念上有很多相似之處,但同時處理這兩項任務並探索它們之間的相互關係並沒有得到很好的研究。佔用模型和偵測模型通常會提取不同的特徵表示。佔用預測任務需要在不同的空間位置上進行詳盡的語意和幾何判斷,因此體素表示被廣泛用於保存細粒度的3D資訊。在偵測任務中,BEV表示是優選的,因為大多數物件處於相同的水平水平面上,具有較小的重疊。
與BEV表示相比,體素表示是精細的,但效率較低。此外,許多高階算子主要針對2D特徵進行設計和最佳化,使其與3D體素表示的整合較不簡單。 BEV表示更具時間效率和記憶體效率,但對於密集空間預測來說,它是次優的,因為它在高度維度上失去了結構資訊。除了特徵表示,不同的感知任務在資料格式和目標方面也有所不同。因此,確保訓練多任務3D感知框架的統一性和效率是一項巨大的挑戰。
UniVision網路結構
UniVision框架的整體結構如圖1所示。此框架接收來自N個周圍相機的多視角影像作為輸入,並透過影像特徵提取網路提取影像特徵。接著,利用Ex-Im視圖變換模組將2D影像特徵升級為3D體素特徵,該模組結合了深度引導的明確特徵提升和查詢引導的隱式特徵採樣。體素特徵經過局部全局特徵提取和融合block處理,以分別提取局部上下文感知的體素特徵和全局上下文感知的BEV特徵。隨後,透過交叉表示特徵交互模組對用於不同下游感知任務的體素特徵和BEV特徵進行資訊交換。在訓練階段,UniVision框架採用聯合Occ-Det資料增強和逐步調整loss權重的策略,以有效地進行訓練。
1)Ex-Im View Transform
深度導向明確特性提升。這裡遵循LSS方法:
2)查詢引導的隱式特徵取樣。然而,在表示3D資訊方面存在一些缺陷。的精度與估計的深度分佈的精度高度相關。此外,LSS產生的點分佈不均勻。點在相機附近密集,在距離上稀疏。因此,我們進一步使用查詢引導的特徵採樣來補償的上述缺點。
與從LSS產生的點相比,體素查詢在3D空間中均勻分佈,並且它們是從所有訓練樣本的統計特性中學習的,這與LSS中使用的深度先驗資訊無關。因此,和相互補充,將它們連接起來作為視圖變換模組的輸出特徵:
#2)局部全局特徵提取與融合
#給定輸入體素特徵,首先將特徵疊加在Z軸上,並使用卷積層來減少通道,以獲得BEV特徵:
然後,模型分成兩個平行的分支進行特徵提取和增強。局部特徵提取 全域特徵提取,以及最後的交叉表示特徵交互作用!如圖1(b)所示。
3)損失函數與偵測頭
漸進式loss weight調整策略。在實踐中,發現直接結合上述損失往往會導致訓練過程失敗,網路無法收斂。在訓練的早期階段,體素特徵Fvoxel是隨機分佈的,佔用頭和檢測頭中的監督比收斂中的其他損失貢獻更小。同時,檢測任務中的分類損失Lcls等損失項目非常大,並且在訓練過程中占主導地位,使得模型難以優化。為了克服這個問題,提出了漸進式損失權重調整策略來動態調整損失權重。具體而言,將控制參數δ添加到非影像級損失(即佔用損失和偵測損失)中,以調整不同訓練週期中的損失權重。控制權重δ在開始時被設定為較小的值Vmin,並在N個訓練時期中逐漸增加到Vmax:
##4)聯合Occ- Det空間資料增強###在3D偵測任務中,除了常見的影像級資料增強之外,空間級資料增強在提高模型效能方面也是有效的。然而,在佔用任務中應用空間層級增強並不簡單。當我們將資料擴充(如隨機縮放和旋轉)應用於離散佔用標籤時,很難確定產生的體素語義。因此,現有的方法只應用簡單的空間擴充,如佔用任務中的隨機翻轉。 ###
為了解決這個問題,UniVision提出了一種聯合Occ-Det空間資料增強,以允許在框架中同時增強3D檢測任務和占用任務。由於3D box標籤是連續值,並且可以直接計算增強的3D box進行訓練,因此遵循BEVDet中的增強方法進行檢測。儘管佔用標籤是離散的並且難以操作,但體素特徵可以被視為連續的,並且可以透過採樣和插值等操作來處理。因此建議對體素特徵進行變換,而不是直接對佔用標籤進行操作以進行資料擴充。
具體來說,首先對空間資料增強進行取樣,並計算對應的3D變換矩陣。對於佔有標籤及其voxel indices ,我們計算了它們的三維座標。然後,將應用於,並對其進行歸一化,以獲得增強體素特徵中的voxel indices :
實驗結果比較
使用了多個資料集進行驗證,NuScenes LiDAR Segmentation、NuScenes 3D Object Detection、OpenOccupancy和Occ3D。
NuScenes LiDAR Segmentation:根據最近的OccFormer和TPVFormer,使用相機影像作為雷射雷達分割任務的輸入,且雷射雷達資料僅用於提供用於查詢輸出特徵的3D位置。使用mIoU作為評估度量。
NuScenes 3D Object Detection:對於檢測任務,使用nuScenes的官方度量,即nuScene檢測分數(NDS),它是平均mAP和幾個度量的加權和,包括平均平移誤差(ATE)、平均尺度誤差(ASE)、平均方向誤差(AOE)、平均速度誤差(AVE)和平均屬性誤差(AAE)。
OpenOccupancy:OpenOccupancy基準基於nuScenes資料集,提供512×512×40解析度的語意佔用標籤。標記的類別與雷射雷達分割任務中的類別相同,使用mIoU作為評估度量!
Occ3D:Occ3D基準基於nuScenes資料集,提供200×200×16解析度的語意佔用標籤。 Occ3D進一步提供了用於訓練和評估的可見mask。標記的類別與雷射雷達分割任務中的類別相同,使用mIoU作為評估度量!
1)Nuscenes雷射雷達分割
表1顯示了nuScenes LiDAR分割基準的結果。 UniVision顯著超過了最先進的基於視覺的方法OccFormer 1.5% mIoU,並在排行榜上創下了基於視覺的模型的新紀錄。值得注意的是,UniVision也優於一些基於雷射雷達的模型,如PolarNe和DB-UNet。
2)NuScenes 3D目標偵測任務
如表2所示,當使用相同的訓練設定進行公平比較時,UniVision顯示出優於其他方法。與512×1408影像解析度的BEVDepth相比,UniVision在mAP和NDS方面分別獲得2.4%和1.1%的增益。當放大模型並將UniVision與時間輸入結合時,它進一步以顯著的優勢優於基於SOTA的時序偵測器。 UniVision透過較小的輸入解析度實現了這一點,而且它不使用CBGS。
3)OpenOccupancy結果比較
OpenOccupancy基準測試的結果如表3所示。 UniVision在mIoU方面分別顯著超過了最近的基於視覺的佔用方法,包括MonoScene、TPVFormer和C-CONet,分別為7.3%、6.5%和1.5%。此外,UniVision超越了一些基於雷射雷達的方法,如LMSCNet和JS3C-Net。
4)Occ3D實驗結果
表4列出了Occ3D基準測試的結果。在不同的輸入影像解析度下,UniVision在mIoU方面顯著優於最近的基於視覺的方法,分別超過2.7%和1.8%。值得注意的是,BEVFormer和BEVDet-stereo加載預先訓練的權重,並在推理中使用時間輸入,而UniVision沒有使用它們,但仍然實現了更好的性能。
5)組件在檢測任務中的有效性
在表5中顯示了檢測任務的消融研究。當將基於BEV的全局特徵提取分支插入基線模型時,效能提高了1.7%mAP和3.0%NDS。當將基於體素的佔用任務作為輔助任務新增至偵測器時,模型的mAP增益提高了1.6%。當從體素特徵中明確引入交叉表示交互作用時,該模型實現了最佳性能,與基線相比,mAP和NDS分別提高了3.5%和4.2%;
6)佔用任務中組件的有效性
在表6中顯示了佔用任務的消融研究。基於體素的局部特徵提取網絡為基線模型帶來了1.96%mIoU增益的改進。當檢測任務被引入作為輔助監督訊號時,模型效能提高了0.4%mIoU。
7)其它
#表5和表6顯示,在UniVision框架中,偵測任務和佔用任務都是相輔相成的。對於偵測任務,佔用監督可以提高mAP和mATE測量,這表明體素語義學習有效地提高了偵測器對目標幾何的感知,即中心度和尺度。對於佔用任務,偵測監督顯著提高了前景類別(即偵測類別)的效能,從而實現了整體改進。
在表7中展示了聯合Occ-Det空間增強、Ex-Im視圖轉換模組和漸進loss weight調整策略的有效性。透過所提出的空間增強和所提出的視圖變換模組,它在mIoU、mAP和NDS度量上顯示了檢測任務和占用任務的顯著改進。 loss weight調整策略能夠有效訓練多任務框架。如果沒有這一點,統一框架的訓練就無法收斂,表現也很低。
參考
論文連結:https://arxiv.org/pdf/2401.06994.pdf
#論文名稱:UniVision: A Unified Framework for Vision-Centric 3D Perception
以上是逆天UniVision:BEV檢測和Occ聯合統一框架,雙SOTA!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

寫在前面&筆者的個人理解三維Gaussiansplatting(3DGS)是近年來在顯式輻射場和電腦圖形學領域出現的一種變革性技術。這種創新方法的特點是使用了數百萬個3D高斯,這與神經輻射場(NeRF)方法有很大的不同,後者主要使用隱式的基於座標的模型將空間座標映射到像素值。 3DGS憑藉其明確的場景表示和可微分的渲染演算法,不僅保證了即時渲染能力,而且引入了前所未有的控制和場景編輯水平。這將3DGS定位為下一代3D重建和表示的潛在遊戲規則改變者。為此我們首次系統性地概述了3DGS領域的最新發展與關

昨天面試被問到了是否做過長尾相關的問題,所以就想著簡單總結一下。自動駕駛長尾問題是指自動駕駛汽車中的邊緣情況,即發生機率較低的可能場景。感知的長尾問題是目前限制單車智慧自動駕駛車輛運行設計域的主要原因之一。自動駕駛的底層架構和大部分技術問題已經解決,剩下的5%的長尾問題,逐漸成了限制自動駕駛發展的關鍵。這些問題包括各種零碎的場景、極端的情況和無法預測的人類行為。自動駕駛中的邊緣場景"長尾"是指自動駕駛汽車(AV)中的邊緣情況,邊緣情況是發生機率較低的可能場景。這些罕見的事件

0.寫在前面&&個人理解自動駕駛系統依賴先進的感知、決策和控制技術,透過使用各種感測器(如相機、光達、雷達等)來感知周圍環境,並利用演算法和模型進行即時分析和決策。這使得車輛能夠識別道路標誌、檢測和追蹤其他車輛、預測行人行為等,從而安全地操作和適應複雜的交通環境。這項技術目前引起了廣泛的關注,並認為是未來交通領域的重要發展領域之一。但是,讓自動駕駛變得困難的是弄清楚如何讓汽車了解周圍發生的事情。這需要自動駕駛系統中的三維物體偵測演算法可以準確地感知和描述周圍環境中的物體,包括它們的位置、

寫在前面&筆者的個人理解目前,在整個自動駕駛系統當中,感知模組扮演了其中至關重要的角色,行駛在道路上的自動駕駛車輛只有通過感知模組獲得到準確的感知結果後,才能讓自動駕駛系統中的下游規控模組做出及時、正確的判斷和行為決策。目前,具備自動駕駛功能的汽車中通常會配備包括環視相機感測器、光達感測器以及毫米波雷達感測器在內的多種數據資訊感測器來收集不同模態的信息,用於實現準確的感知任務。基於純視覺的BEV感知演算法因其較低的硬體成本和易於部署的特點,以及其輸出結果能便捷地應用於各種下游任務,因此受到工業

軌跡預測在自動駕駛中承擔著重要的角色,自動駕駛軌跡預測是指透過分析車輛行駛過程中的各種數據,預測車輛未來的行駛軌跡。作為自動駕駛的核心模組,軌跡預測的品質對於下游的規劃控制至關重要。軌跡預測任務技術堆疊豐富,需熟悉自動駕駛動/靜態感知、高精地圖、車道線、神經網路架構(CNN&GNN&Transformer)技能等,入門難度很高!許多粉絲期望能夠盡快上手軌跡預測,少踩坑,今天就為大家盤點下軌跡預測常見的一些問題和入門學習方法!入門相關知識1.預習的論文有沒有切入順序? A:先看survey,p

原文標題:SIMPL:ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving論文連結:https://arxiv.org/pdf/2402.02519.pdf程式碼連結:https://github.com/HKUST-Aerial-Robotics/SIMPLobotics單位論文想法:本文提出了一種用於自動駕駛車輛的簡單且有效率的運動預測基線(SIMPL)。與傳統的以代理為中心(agent-cent

最近一個月由於眾所周知的一些原因,非常密集地和業界的各種老師同學進行了交流。交流中必不可免的一個話題自然是端到端與火辣的特斯拉FSDV12。想藉此機會,整理當下這個時刻的一些想法和觀點,供大家參考和討論。如何定義端到端的自動駕駛系統,應該期望端到端解決什麼問題?依照最傳統的定義,端到端的系統指的是一套系統,輸入感測器的原始訊息,直接輸出任務關心的變數。例如,在影像辨識中,CNN相對於傳統的特徵提取器+分類器的方法就可以稱之為端到端。在自動駕駛任務中,輸入各種感測器的資料(相機/LiDAR

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP
