自動駕駛汽車能向行人表明其意圖嗎?
要判斷能否安全地穿越寬闊的道路,需要行人和駕駛之間的社交提示和配合交流。那麼,如果是自動駕駛車輛會怎麼樣呢?自動駕駛汽車公司Motional認為,讓車輛更善於表達可能是維持這些重要訊號的關鍵。
在人行橫道上等候時,Motional的首席工程師保羅•施密特(Paul Schmitt)體驗到了他稱之為「一瞥共舞」的感覺。這是一種快速且幾乎是潛意識的評估:迎面而來的汽車駕駛看向哪裡?他們是否注意到他? 「而對於自動駕駛車輛,這種互動有一半都不存在了。」施密特說,「因此,有哪些提示可供行人了解車輛的意圖?」
為了回答這個問題,他的團隊聘用了動畫工作室CHRLX建立非常逼真的虛擬實境體驗設計,測試行人對各種訊號機制的反應。他們的研究結果發表在了《IEEE機器人與自動化快報》。施密特和他的團隊表示,誇張的駕駛操作——提前煞車或在行人面前停車,是表達其意圖最有效的方式。
該公司目前正在將最有前途的表達行為整合到其動作規劃系統中,也開源了虛擬實境交通環境以便其他團隊進行實驗。
該研究還測試了各種表達行為,這些行為在向行人發出含蓄的信號,表示車輛正在為其停下來。其中包括讓汽車在距離基準線更遠處更猛烈地煞車、停在一輛車長度的距離以外、增加猛烈煞車和低轉速聲音,最後將這些聲音與車頭誇張的下沉結合起來,就像車輛正在急煞車一樣。
團隊測量了行人多快可決定橫穿車道,每次試驗後都對行人進行了快速調查,以了解其感受到的安全程度、對決定自己橫穿車道的信心程度,以及對汽車意圖的理解程度。在安全程度和理解汽車意圖程度方面,短暫停車的得分最高。
施密特說,短暫停車得到的反應最佳,這並不意外,因為這種方法受到了人類駕駛員在行人面前減速這一行為的啟發。他補充道,令人感到意外的是,在是否有駕駛員的不同情況下,這種基準場景的反應差異並不大,這表明行人更注意的是車輛的運動而不是方向盤後面的駕駛者。
以上是自動駕駛汽車能向行人表明其意圖嗎?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

昨天面試被問到了是否做過長尾相關的問題,所以就想著簡單總結一下。自動駕駛長尾問題是指自動駕駛汽車中的邊緣情況,即發生機率較低的可能場景。感知的長尾問題是目前限制單車智慧自動駕駛車輛運行設計域的主要原因之一。自動駕駛的底層架構和大部分技術問題已經解決,剩下的5%的長尾問題,逐漸成了限制自動駕駛發展的關鍵。這些問題包括各種零碎的場景、極端的情況和無法預測的人類行為。自動駕駛中的邊緣場景"長尾"是指自動駕駛汽車(AV)中的邊緣情況,邊緣情況是發生機率較低的可能場景。這些罕見的事件

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP

純視覺的標註方案,主要利用視覺加上一些GPS、IMU和輪速感測器的資料進行動態標註。當然面向量產場景的話,不一定要純視覺,有些量產的車輛裡面,會有像固態雷達(AT128)這樣的感測器。如果從量產的角度做資料閉環,把這些感測器都用上,可以有效解決動態物體的標註問題。但是我們的方案裡面,是沒有固態雷達的。所以,我們就介紹這個最通用的量產標註方案。純視覺的標註方案的核心在於高精度的pose重建。我們採用StructurefromMotion(SFM)的pose重建方案,來確保重建精確度。但是傳

寫在前面&筆者的個人理解近年來,自動駕駛因其在減輕駕駛員負擔和提高駕駛安全方面的潛力而越來越受到關注。基於視覺的三維佔用預測是一種新興的感知任務,適用於具有成本效益且對自動駕駛安全全面調查的任務。儘管許多研究已經證明,與基於物體為中心的感知任務相比,3D佔用預測工具具有更大的優勢,但仍存在專門針對這一快速發展領域的綜述。本文首先介紹了基於視覺的3D佔用預測的背景,並討論了這項任務中遇到的挑戰。接下來,我們從特徵增強、部署友善性和標籤效率三個面向全面探討了目前3D佔用預測方法的現況和發展趨勢。最後

寫在前面&筆者的個人理解這篇論文致力於解決當前多模態大語言模型(MLLMs)在自動駕駛應用中存在的關鍵挑戰,即將MLLMs從2D理解擴展到3D空間的問題。由於自動駕駛車輛(AVs)需要針對3D環境做出準確的決策,這項擴展顯得格外重要。 3D空間理解對於AV來說至關重要,因為它直接影響車輛做出明智決策、預測未來狀態以及與環境安全互動的能力。目前的多模態大語言模型(如LLaVA-1.5)通常只能處理較低解析度的影像輸入(例如),這是由於視覺編碼器的分辨率限制,LLM序列長度的限制。然而,自動駕駛應用需

中科院自動化所深度強化學習團隊聯合理想汽車等提出了一種新的基於多模態大語言模型MLLM的自動駕駛閉環規劃框架—PlanAgent。此方法以場景的鳥瞰圖和基於圖的文本提示為輸入,利用多模態大語言模型的多模態理解和常識推理能力,進行從場景理解到橫向和縱向運動指令生成的層次化推理,並進一步產生規劃器所需的指令。在大規模且具有挑戰性的nuPlan基準上對該方法進行了測試,實驗表明PlanAgent在常規場景和長尾場景上都取得了最好(SOTA)性能。與常規大語言模型(LLM)方法相比,PlanAgent所

寫在前面&筆者的個人理解目前,隨著自動駕駛技術的越發成熟以及自動駕駛感知任務需求的日益增多,工業界和學術界非常希望一個理想的感知算法模型,可以同時完成三維目標檢測以及基於BEV空間的語意分割任務。對於一輛能夠實現自動駕駛功能的車輛而言,其通常配備環視相機感測器、光達感測器以及毫米波雷達感測器來採集不同模態的數據資訊。從而充分利用不同模態資料之間的互補優勢,使得不同模態之間的資料補充優勢,例如三維點雲資料可以為3D目標檢測任務提供信息,而彩色影像資料則可以為語義分割任務提供更加準確的資訊。針

1決策控制與運動規劃概述目前決策控制方法可分為三類:sequentialplanning、behavior-awareplanning、和end-to-endplanning。 sequentialplanning:最傳統的方法,感知、決策與控制三個部分層次較為清晰;behavior-awareplanning:相比第一種亮點在於引入人機共駕、車路協同以及車輛對外部動態環境的風險預估; end-to-endplanning:DL、DRL技術,借助大量的資料訓練,獲得從影像等感知資訊到方向盤轉角等車
