在 CARLA自動駕駛模擬器中加入真實智體行為
arXiv論文“Insertion of real agents behaviors in CARLA autonomous driving simulator“,22年6月,西班牙。
由於需要快速prototyping和廣泛測試,模擬在自動駕駛中的作用變得越來越重要。基於物理的模擬具有多種優勢和益處,成本合理,同時消除了prototyping、駕駛員和弱勢道路使用者(VRU)的風險。
然而,主要有兩個限制。首先,眾所周知的現實差距是指現實和模擬之間的差異,阻礙模擬自主駕駛體驗去實現有效的現實世界性能。其次,缺乏關於真實智體(人類)行為的實證知識,包括後補司機或乘客以及其他道路使用者,如車輛、行人或自行車手。
智體模擬通常是預先編程確定、機率隨機或基於真實數據生成的,但並不表示與特定模擬場景交互的真實智體行為。本文提出一個初步框架,實現真實智體和模擬環境(包括自主車輛)之間的即時交互,並從多個視圖的模擬感測器產生合成序列數據,用於訓練依賴行為模型的預測系統。
此方法將沉浸式虛擬實境(VR)和人體運動捕捉(HMC)系統與CARLA集成,用於自動駕駛。其中描述硬體和軟體架構,並討論所謂的行為差距。
如圖所示是此方法概覽:(1) CARLA- UE配有頭部(VR耳機)和身體(動作捕捉系統)姿勢。 (2) 生成場景,包括自動駕駛車輛和數位化的行人。 (3) 提供行人環境(透過VR耳機)。 (4) 自動車輛感知器感知環境,包括行人。
以下介紹CARLA自動駕駛模擬器中浸入式VR系統的功能。
透過利用UE4提供的功能和外部硬體(如VR眼鏡和一組運動感測器)進行行為和互動研究,實現完全行人浸入。
CARLA開源模擬器是在UE4上實現的,UE4提供了高品質的渲染、逼真的物理環境和互通插件的生態系統。 CARLA模擬動態交通場景,並提供UE4創建的虛擬世界與場景內運行的道路智體之間的介面。 CARLA被設計成一個伺服器-客戶端系統來實現這一點,伺服器運行模擬程式並渲染場景。客戶端和伺服器之間的通訊透過sockets完成。
在模擬中插入真實智體行為的主要特徵基於五點(如圖所示):1)Avatar控制:CARLA blueprint庫,收集所有角色和屬性的架構,修改行人blueprint,在人和虛擬世界之間創建浸入可移動的VR介面;2) 身體追蹤:用一組慣性感測器和專有的外部軟體透過真實場景捕捉主體運動以及運動感知,透過.bvh檔案將Avatar的運動整合到模擬器中;3) 聲音設計:由於CARLA是一個無音訊模擬器,在環境中引入位置聲音,增強沉浸感;4) eHMI整合:實現自動駕駛車輛狀態和意圖訊息的通信,做互動研究;5) 場景模擬:在CARLA客戶端內設計交通場景,控制車輛和行人的行為。
道路使用者之間的通訊是交通環境中的重要因素。實驗中為自動駕駛車輛提供了外部人機介面(eHMI),將其狀態和意圖傳達給實際道路使用者。
如圖所示,所提出的eHMI設計由沿著汽車前方的光帶組成。左圖無eHMI,右圖附eHMI。這可以研究當行人軌跡與虛擬場景車輛軌跡匯聚時,介面對決策的影響。
整個系統架構如圖:
CARLA提供了不同的選項來模擬交通和特定的交通場景。用交通管理模組填滿具有真實城市交通狀況的模擬。每輛車的控制在特定執行緒執行。透過同步訊息傳遞管理與其他層的通訊。
透過設定強制特定行為參數來控制交通流。例如,可以允許汽車超速、忽略紅綠燈條件、忽略行人或強制改變車道。
主體整合到包含一個城市3-D模型地圖的模擬器。每個地圖都基於一個OpenDRIVE文件,描述完整註釋的道路佈局。該功能允許設計自己的地圖,在真實和虛擬環境中再現相同的流量場景,評估模擬器真實行為的集成,並能夠通過比較交互結果來進行現場研究。
硬體設定如圖:在實驗過程中,用Oculus Quest 2作頭戴式裝置(HMD),Meta創建,6GB RAM處理器、兩個可調1832 x 1920透鏡、90Hz刷新率和256 GB的記憶體。 Quest 2具有Wi-Fi 6、藍牙5.1和USB Type-C連接、SteamVR支援和3D揚聲器。對於全身跟踪,用帶有慣性跟踪器的PNS封裝解決方案。套件包括獨立的VR耳機、2個運動控制器、17個Studio慣性人體感測器、14組straps、1個充電箱和1個Studio收發器。
由於CARLA build和Quest 2只依賴Windows,VR Immersion System目前依賴UE4.24和Windows 10作業系統。用TCP sockets插件,編輯器的所有參與者位置和其他有用參數從Python API發送,整合每個參與者的聲音或自動駕駛車輛的eHMI。 ”VR Preview”在HMD啟動遊戲。 Perception Neuron Studio與Axis Studio合作,Axis Studio一次支援最多3個主題,同時支援23個身體和手指感應器。
如圖是互動交通狀況的模擬:(a) 3D世界設計。 (b)行人匹配執行者Avatar。 (c) 自動駕駛汽車。 (d) 環境聲音和智體聲音。 (e) eHMI。 (f) 交通燈和交通標誌。
以上是在 CARLA自動駕駛模擬器中加入真實智體行為的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

寫在前面&筆者的個人理解三維Gaussiansplatting(3DGS)是近年來在顯式輻射場和電腦圖形學領域出現的一種變革性技術。這種創新方法的特點是使用了數百萬個3D高斯,這與神經輻射場(NeRF)方法有很大的不同,後者主要使用隱式的基於座標的模型將空間座標映射到像素值。 3DGS憑藉其明確的場景表示和可微分的渲染演算法,不僅保證了即時渲染能力,而且引入了前所未有的控制和場景編輯水平。這將3DGS定位為下一代3D重建和表示的潛在遊戲規則改變者。為此我們首次系統性地概述了3DGS領域的最新發展與關

昨天面試被問到了是否做過長尾相關的問題,所以就想著簡單總結一下。自動駕駛長尾問題是指自動駕駛汽車中的邊緣情況,即發生機率較低的可能場景。感知的長尾問題是目前限制單車智慧自動駕駛車輛運行設計域的主要原因之一。自動駕駛的底層架構和大部分技術問題已經解決,剩下的5%的長尾問題,逐漸成了限制自動駕駛發展的關鍵。這些問題包括各種零碎的場景、極端的情況和無法預測的人類行為。自動駕駛中的邊緣場景"長尾"是指自動駕駛汽車(AV)中的邊緣情況,邊緣情況是發生機率較低的可能場景。這些罕見的事件

0.寫在前面&&個人理解自動駕駛系統依賴先進的感知、決策和控制技術,透過使用各種感測器(如相機、光達、雷達等)來感知周圍環境,並利用演算法和模型進行即時分析和決策。這使得車輛能夠識別道路標誌、檢測和追蹤其他車輛、預測行人行為等,從而安全地操作和適應複雜的交通環境。這項技術目前引起了廣泛的關注,並認為是未來交通領域的重要發展領域之一。但是,讓自動駕駛變得困難的是弄清楚如何讓汽車了解周圍發生的事情。這需要自動駕駛系統中的三維物體偵測演算法可以準確地感知和描述周圍環境中的物體,包括它們的位置、

一先導與重點文章主要介紹自動駕駛技術中幾種常用的座標系統,以及他們之間如何完成關聯與轉換,最終建構出統一的環境模型。這裡重點理解自車到相機剛體轉換(外參),相機到影像轉換(內參),影像到像素有單位轉換。 3d向2d轉換會有對應的畸變,平移等。重點:自車座標系相機機體座標系需要被重寫的是:平面座標系像素座標系難點:要考慮影像畸變,去畸變和加畸變都是在像平面上去補償二簡介視覺系統一共有四個座標系:像素平面座標系(u,v)、影像座標系(x,y)、相機座標系()與世界座標系()。每種座標系之間均有聯繫,

軌跡預測在自動駕駛中承擔著重要的角色,自動駕駛軌跡預測是指透過分析車輛行駛過程中的各種數據,預測車輛未來的行駛軌跡。作為自動駕駛的核心模組,軌跡預測的品質對於下游的規劃控制至關重要。軌跡預測任務技術堆疊豐富,需熟悉自動駕駛動/靜態感知、高精地圖、車道線、神經網路架構(CNN&GNN&Transformer)技能等,入門難度很高!許多粉絲期望能夠盡快上手軌跡預測,少踩坑,今天就為大家盤點下軌跡預測常見的一些問題和入門學習方法!入門相關知識1.預習的論文有沒有切入順序? A:先看survey,p

原文標題:SIMPL:ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving論文連結:https://arxiv.org/pdf/2402.02519.pdf程式碼連結:https://github.com/HKUST-Aerial-Robotics/SIMPLobotics單位論文想法:本文提出了一種用於自動駕駛車輛的簡單且有效率的運動預測基線(SIMPL)。與傳統的以代理為中心(agent-cent

寫在前面&出發點端到端的範式使用統一的框架在自動駕駛系統中實現多任務。儘管這種範式具有簡單性和清晰性,但端到端的自動駕駛方法在子任務上的表現仍然遠遠落後於單任務方法。同時,先前端到端方法中廣泛使用的密集鳥瞰圖(BEV)特徵使得擴展到更多模態或任務變得困難。這裡提出了一種稀疏查找為中心的端到端自動駕駛範式(SparseAD),其中稀疏查找完全代表整個駕駛場景,包括空間、時間和任務,無需任何密集的BEV表示。具體來說,設計了一個統一的稀疏架構,用於包括檢測、追蹤和線上地圖繪製在內的任務感知。此外,重

最近一個月由於眾所周知的一些原因,非常密集地和業界的各種老師同學進行了交流。交流中必不可免的一個話題自然是端到端與火辣的特斯拉FSDV12。想藉此機會,整理當下這個時刻的一些想法和觀點,供大家參考和討論。如何定義端到端的自動駕駛系統,應該期望端到端解決什麼問題?依照最傳統的定義,端到端的系統指的是一套系統,輸入感測器的原始訊息,直接輸出任務關心的變數。例如,在影像辨識中,CNN相對於傳統的特徵提取器+分類器的方法就可以稱之為端到端。在自動駕駛任務中,輸入各種感測器的資料(相機/LiDAR
