SurroundOcc:環視三維佔據柵格新SOTA!
在這個工作中,我們透過多幀點雲建構了稠密佔據柵格資料集,並設計了基於transformer的2D-3D Unet結構的三維佔據柵格網路。很榮幸地,我們的文章被ICCV 2023收錄,目前專案代碼已開源,歡迎大家試用。
arXiv:https://arxiv.org/pdf/2303.09551.pdf
程式碼:https://github.com/weiyithu/SurroundOcc
主頁連結:https://weiyithu.github.io/SurroundOcc/
最近一直在瘋狂找工作,沒有閒下來寫,正好最近提交了camera-ready,作為一個工作的收尾覺得還是寫個知乎總結下。其實文章部分的介紹各個公眾號寫的已經很好了,也感謝他們的宣傳,大家可以直接參考自動駕駛之心的自動駕駛之心:nuScenes SOTA! SurroundOcc:面向自動駕駛的純視覺3D佔據預測網(清華&天大)。總的來說,contribution分為兩塊,一部分是如何利用多幀的lidar點雲來建構稠密occupancy資料集,另一部分是如何設計occupancy預測的網路。其實兩部分的內容都比較直接易懂,大家有哪塊不懂的也可以隨時問我。那麼這篇文章我想講點論文以外的事情,一個是如何改進當前方案使其更易於部署,另一個是未來的發展方向。
部署
#一個網路是否容易部署,主要看其中有沒有比較難在板端實現的算子,SurroundOcc這個方法比較難搞的兩個算子是transformer層以及3D卷積。
transformer的主要作用是將2D feature轉換到3D空間,那麼其實這部分也可以用LSS,Homography甚至mlp來實現,所以可以根據已實現的方案去修改這部分的網絡。但據我所知,transformer的方案在幾個方案裡對calibration不敏感且效能也比較好,建議有能力實現transformer部署的還是利用原有方案。
對於3D卷積來說,可以將其替換成2D卷積,這裡需要將原來(C, H, W, Z) 的3D feature reshape成(C* Z, H, W)的2D feature,然後就可以用2D卷積進行特徵提取了,在最後occupancy預測那步再把它reshape回(C, H, W, Z),並進行監督。另一方面,skip connection由於解析度比較大所以比較吃顯存,部署的時候可以去掉只留最小解析度那一層。我們實驗發現3D卷積中的這兩個操作在nuscenes上都會有些許掉點,但業界資料集規模要遠大於nuscenes,有時候有些結論也會改變,掉點應該會少甚至不掉。
在資料集建置方面,最耗時的一步就是泊松重建。我們使用的是nuscenes資料集,其中採用了32線雷射雷達進行採集。即使使用了多幀拼接技術,我們發現拼接後的點雲仍然存在許多洞。因此,我們採用了泊松重建來填補這些洞。然而,目前業界使用的許多光達點雲都比較密集,例如M1、RS128等。因此,在這種情況下,可以省略泊松重建這一步,以加快資料集建構的速度
另一方面,SurroundOcc裡是利用nuscenes中標註好的三維目標偵測框將靜態場景和動態物體分離的。但在實際應用過程中,可以利用autolabel,也就是三維目標偵測&追蹤大模型去得到每個物體在整個sequence中的偵測框。相較於人工標註的label,利用大模型跑出來的結果一定會存在一些誤差,最直接的體現就是多幀的物體拼接後會有重影的現象。但其實occupancy對於物體形狀的要求沒有那麼高,只要偵測框位置比較準就能滿足需求。
未來方向
目前方法還是比較依賴lidar提供occupancy的監督訊號的,但很多車上,尤其是一些低階輔助駕駛的車上沒有lidar,這些車透過shadow模式可以傳回大量的RGB數據,那麼一個未來方向就是能不能只利用RGB進行自我監督學習。一個自然的解決想法就是利用NeRF來監督,具體來說,前面backbone部分不變,得到一個occupancy的預測,然後利用體素渲染得到每個相機視角下的RGB,和訓練集中的真值RGB做loss形成監督訊號。但可惜的是這套straightforward的方法我們試了試並不是很work,可能的原因是戶外場景range太大,nerf可能hold不住,但也可能我們沒有調好,大家也可以再試。
另一個方向是時序&occupancy flow。其實occupancy flow對於下游任務的用途遠比單幀occupancy大。 ICCV的時候來不及整occupancy flow的資料集,發paper的話還要對比很多flow的baseline,所以當時就沒搞這塊。時序網路可以參考BEVFormer和BEVDet4D的方案,比較簡單有效。困難的地方還是flow資料集這一部分,一般的物體可以用sequence的三維目標偵測框算出來,但異型物體例如小動物塑膠袋等,可能需要藉助場景流的方法來標註。
需要進行改寫的內容是:原文連結:https://mp.weixin.qq.com/s/_crun60B_lOz6_maR0Wyug
以上是SurroundOcc:環視三維佔據柵格新SOTA!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

寫在前面&筆者的個人理解三維Gaussiansplatting(3DGS)是近年來在顯式輻射場和電腦圖形學領域出現的一種變革性技術。這種創新方法的特點是使用了數百萬個3D高斯,這與神經輻射場(NeRF)方法有很大的不同,後者主要使用隱式的基於座標的模型將空間座標映射到像素值。 3DGS憑藉其明確的場景表示和可微分的渲染演算法,不僅保證了即時渲染能力,而且引入了前所未有的控制和場景編輯水平。這將3DGS定位為下一代3D重建和表示的潛在遊戲規則改變者。為此我們首次系統性地概述了3DGS領域的最新發展與關

昨天面試被問到了是否做過長尾相關的問題,所以就想著簡單總結一下。自動駕駛長尾問題是指自動駕駛汽車中的邊緣情況,即發生機率較低的可能場景。感知的長尾問題是目前限制單車智慧自動駕駛車輛運行設計域的主要原因之一。自動駕駛的底層架構和大部分技術問題已經解決,剩下的5%的長尾問題,逐漸成了限制自動駕駛發展的關鍵。這些問題包括各種零碎的場景、極端的情況和無法預測的人類行為。自動駕駛中的邊緣場景"長尾"是指自動駕駛汽車(AV)中的邊緣情況,邊緣情況是發生機率較低的可能場景。這些罕見的事件

0.寫在前面&&個人理解自動駕駛系統依賴先進的感知、決策和控制技術,透過使用各種感測器(如相機、光達、雷達等)來感知周圍環境,並利用演算法和模型進行即時分析和決策。這使得車輛能夠識別道路標誌、檢測和追蹤其他車輛、預測行人行為等,從而安全地操作和適應複雜的交通環境。這項技術目前引起了廣泛的關注,並認為是未來交通領域的重要發展領域之一。但是,讓自動駕駛變得困難的是弄清楚如何讓汽車了解周圍發生的事情。這需要自動駕駛系統中的三維物體偵測演算法可以準確地感知和描述周圍環境中的物體,包括它們的位置、

StableDiffusion3的论文终于来了!这个模型于两周前发布,采用了与Sora相同的DiT(DiffusionTransformer)架构,一经发布就引起了不小的轰动。与之前版本相比,StableDiffusion3生成的图质量有了显著提升,现在支持多主题提示,并且文字书写效果也得到了改善,不再出现乱码情况。StabilityAI指出,StableDiffusion3是一个系列模型,其参数量从800M到8B不等。这一参数范围意味着该模型可以在许多便携设备上直接运行,从而显著降低了使用AI

軌跡預測在自動駕駛中承擔著重要的角色,自動駕駛軌跡預測是指透過分析車輛行駛過程中的各種數據,預測車輛未來的行駛軌跡。作為自動駕駛的核心模組,軌跡預測的品質對於下游的規劃控制至關重要。軌跡預測任務技術堆疊豐富,需熟悉自動駕駛動/靜態感知、高精地圖、車道線、神經網路架構(CNN&GNN&Transformer)技能等,入門難度很高!許多粉絲期望能夠盡快上手軌跡預測,少踩坑,今天就為大家盤點下軌跡預測常見的一些問題和入門學習方法!入門相關知識1.預習的論文有沒有切入順序? A:先看survey,p

原文標題:SIMPL:ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving論文連結:https://arxiv.org/pdf/2402.02519.pdf程式碼連結:https://github.com/HKUST-Aerial-Robotics/SIMPLobotics單位論文想法:本文提出了一種用於自動駕駛車輛的簡單且有效率的運動預測基線(SIMPL)。與傳統的以代理為中心(agent-cent

最近一個月由於眾所周知的一些原因,非常密集地和業界的各種老師同學進行了交流。交流中必不可免的一個話題自然是端到端與火辣的特斯拉FSDV12。想藉此機會,整理當下這個時刻的一些想法和觀點,供大家參考和討論。如何定義端到端的自動駕駛系統,應該期望端到端解決什麼問題?依照最傳統的定義,端到端的系統指的是一套系統,輸入感測器的原始訊息,直接輸出任務關心的變數。例如,在影像辨識中,CNN相對於傳統的特徵提取器+分類器的方法就可以稱之為端到端。在自動駕駛任務中,輸入各種感測器的資料(相機/LiDAR

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP
