在 CARLA自動駕駛模擬器中加入真實智體行為

WBOY
發布: 2023-04-08 14:11:08
轉載
1543 人瀏覽過

arXiv論文“Insertion of real agents behaviors in CARLA autonomous driving simulator“,22年6月,西班牙。

在 CARLA自動駕駛模擬器中加入真實智體行為

由於需要快速prototyping和廣泛測試,模擬在自動駕駛中的作用變得越來越重要。基於物理的模擬具有多種優勢和益處,成本合理,同時消除了prototyping、駕駛員和弱勢道路使用者(VRU)的風險。

然而,主要有兩個限制。首先,眾所周知的現實差距是指現實和模擬之間的差異,阻礙模擬自主駕駛體驗去實現有效的現實世界性能。其次,缺乏關於真實智體(人類)行為的實證知識,包括後補司機或乘客以及其他道路使用者,如車輛、行人或自行車手。

智體模擬通常是預先編程確定、機率隨機或基於真實數據生成的,但並不表示與特定模擬場景交互的真實智體行為。本文提出一個初步框架,實現真實智體和模擬環境(包括自主車輛)之間的即時交互,並從多個視圖的模擬感測器產生合成序列數據,用於訓練依賴行為模型的預測系統。

此方法將沉浸式虛擬實境(VR)和人體運動捕捉(HMC)系統與CARLA集成,用於自動駕駛。其中描述硬體和軟體架構,並討論所謂的行為差距。

如圖所示是此方法概覽:(1) CARLA- UE配有頭部(VR耳機)和身體(動作捕捉系統)姿勢。 (2) 生成場景,包括自動駕駛車輛和數位化的行人。 (3) 提供行人環境(透過VR耳機)。 (4) 自動車輛感知器感知環境,包括行人。

在 CARLA自動駕駛模擬器中加入真實智體行為

以下介紹CARLA自動駕駛模擬器中浸入式VR系統的功能。

透過利用UE4提供的功能和外部硬體(如VR眼鏡和一組運動感測器)進行行為和互動研究,實現完全行人浸入。

CARLA開源模擬器是在UE4上實現的,UE4提供了高品質的渲染、逼真的物理環境和互通插件的生態系統。 CARLA模擬動態交通場景,並提供UE4創建的虛擬世界與場景內運行的道路智體之間的介面。 CARLA被設計成一個伺服器-客戶端系統來實現這一點,伺服器運行模擬程式並渲染場景。客戶端和伺服器之間的通訊透過sockets完成。

在 CARLA自動駕駛模擬器中加入真實智體行為

在模擬中插入真實智體行為的主要特徵基於五點(如圖所示):1)Avatar控制:CARLA blueprint庫,收集所有角色和屬性的架構,修改行人blueprint,在人和虛擬世界之間創建浸入可移動的VR介面;2) 身體追蹤:用一組慣性感測器和專有的外部軟體透過真實場景捕捉主體運動以及運動感知,透過.bvh檔案將Avatar的運動整合到模擬器中;3) 聲音設計:由於CARLA是一個無音訊模擬器,在環境中引入位置聲音,增強沉浸感;4) eHMI整合:實現自動駕駛車輛狀態和意圖訊息的通信,做互動研究;5) 場景模擬:在CARLA客戶端內設計交通場景,控制車輛和行人的行為。

道路使用者之間的通訊是交通環境中的重要因素。實驗中為自動駕駛車輛提供了外部人機介面(eHMI),將其狀態和意圖傳達給實際道路使用者。

在 CARLA自動駕駛模擬器中加入真實智體行為

如圖所示,所提出的eHMI設計由沿著汽車前方的光帶組成。左圖無eHMI,右圖附eHMI。這可以研究當行人軌跡與虛擬場景車輛軌跡匯聚時,介面對決策的影響。

整個系統架構如圖:

在 CARLA自動駕駛模擬器中加入真實智體行為

CARLA提供了不同的選項來模擬交通和特定的交通場景。用交通管理模組填滿具有真實城市交通狀況的模擬。每輛車的控制在特定執行緒執行。透過同步訊息傳遞管理與其他層的通訊。

透過設定強制特定行為參數來控制交通流。例如,可以允許汽車超速、忽略紅綠燈條件、忽略行人或強制改變車道。

主體整合到包含一個城市3-D模型地圖的模擬器。每個地圖都基於一個OpenDRIVE文件,描述完整註釋的道路佈局。該功能允許設計自己的地圖,在真實和虛擬環境中再現相同的流量場景,評估模擬器真實行為的集成,並能夠通過比較交互結果來進行現場研究。

硬體設定如圖:在實驗過程中,用Oculus Quest 2作頭戴式裝置(HMD),Meta創建,6GB RAM處理器、兩個可調1832 x 1920透鏡、90Hz刷新率和256 GB的記憶體。 Quest 2具有Wi-Fi 6、藍牙5.1和USB Type-C連接、SteamVR支援和3D揚聲器。對於全身跟踪,用帶有慣性跟踪器的PNS封裝解決方案。套件包括獨立的VR耳機、2個運動控制器、17個Studio慣性人體感測器、14組straps、1個充電箱和1個Studio收發器。

在 CARLA自動駕駛模擬器中加入真實智體行為

由於CARLA build和Quest 2只依賴Windows,VR Immersion System目前依賴UE4.24和Windows 10作業系統。用TCP sockets插件,編輯器的所有參與者位置和其他有用參數從Python API發送,整合每個參與者的聲音或自動駕駛車輛的eHMI。 ”VR Preview”在HMD啟動遊戲。 Perception Neuron Studio與Axis Studio合作,Axis Studio一次支援最多3個主題,同時支援23個身體和手指感應器。

如圖是互動交通狀況的模擬:(a) 3D世界設計。 (b)行人匹配執行者Avatar。 (c) 自動駕駛汽車。 (d) 環境聲音和智體聲音。 (e) eHMI。 (f) 交通燈和交通標誌。

在 CARLA自動駕駛模擬器中加入真實智體行為

以上是在 CARLA自動駕駛模擬器中加入真實智體行為的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!