自動駕駛還要多久才能真正實現?
近日,一則關於某新勢力的車輛在「智慧駕駛輔助功能開啟」狀態下出現嚴重車禍(請原諒我用這麼長的句子來描述這起車禍,因為我實在不希望惹上任何的麻煩)的新聞刷爆了網絡,讓大家再一次關注自動駕駛的技術發展和相關的社會問題。
關於這起事故,從網路上可以獲得的消息總結出來的場景過程大致是這樣的:車主A在高架上開啟了ACC(自適應巡航)和LCC(車道居中輔助),以80km/h的速度在最左側車道行駛;突然前面出現了一輛靜止在同車道上的車輛,車輛後方有一個人B;車主A的車輛沒有煞車或避讓,直直撞向了靜止的車輛和人員B,造成了靜止車輛後方的人員B死亡…
網傳,事故車主A的說法是: 「我開了輔助駕駛系統,系統沒識別,正巧當時自己還分神了」。
那麼,究竟事故的責任該由誰來承擔?肇事車的車主?還是該車的設計與生產者?
雖然我沒有自己買過任何有這麼「高級」智慧駕駛功能的車輛,不清楚車輛使用手冊或使用者協議究竟怎麼寫的,但根據當前各個車企的普遍做法,車輛在執行智慧駕駛功能時,車主必須隨時負責監控路面狀況,並需要隨時準備接管車輛。
因為,無論大家在廣告中吹的多麼響亮,但所有人的心裡都清楚的很,現在的智能駕駛還根本不能叫做自動駕駛,依然只是輔助駕駛,只能提供駕駛時駕駛時的輔助功能,無法達到替代駕駛者的目的。
根據《深圳經濟特區智能網聯汽車管理條例》第五十一條規定,有駕駛人的智能網聯汽車發生道路交通安全違法行為形,由公安機關交通管理部門依法對駕駛人進行處理。第五十四條規定,智慧網聯汽車發生交通事故,若因汽車本身有缺陷造成損害的,車輛駕駛人或者所有人、管理人完成規定賠償後,可以依法向生產者、銷售者請求賠償。
從上述的規定中可以看出,在發生事故時,駕駛人仍然是第一責任人,如果可以證明車輛本身有缺陷,則可以向車企要求賠償。但,一個普通的消費者怎麼可能證明車輛有缺陷呢?
我們在此並不想詳細分析這起事故的原因--究竟是車輛本身的設計缺陷,還是駕駛員的責任;只想從這次事故入手分析一下當前智慧駕駛的現況。
根據SAE J3016的自動駕駛劃分標準,在L3以下級別,雖然轉向、加速和減速等操作可以由車輛自動的自動駕駛系統負責,人類駕駛員還是要負責監控路面的所有情況。也就是說,在L3以下級別,自動駕駛系統只是輔助,駕駛要對車輛的安全運作負全部的責任。
根據這種責任的劃分,在目前自動駕駛技術遠未成熟的情況下,就出現了各種L2.5、L2.9、L2.9 等各種頗有「創意」的、具有中國特色的命名方式。
各個OEM都在打擦邊球,沒有人敢拍胸脯說自己的自動駕駛系統已經可以達到L3了。因為一旦宣稱了是L3,那麼車輛在L3自動駕駛狀態下的事故的責任就需要車企來承擔了。
在這種狀態下,一方面,大家要互相比拼技術實力,不斷推出看起來更先進的自動駕駛功能,期望能夠多賣一些車;另一方面,又不敢跨越L3這個邊界半步。因為,只要不是L3,那麼所有的事故就都跟自己無關,至少在用戶的手冊中已經明確說明了駕駛員有責任要隨時準備車輛的接管。
然而事實上,讓我們換個角度思考這個事情,當你參加一個完全不需要你發言或記錄內容的會議時,你會不會打瞌睡、看手機、發呆… 現在的L2.X的輔助駕駛功能就是這樣一種奇怪的存在,你不需要控制方向盤、煞車和油門;但是你還必須把手放在方向盤上,眼睛還要一直盯著前面,否則DMS等系統就會報警,提示你要專心的監控路面。
這種情況就好像你明明找了一個專職駕駛員,然後在他開車的時候你還必須時刻監督他。在出現了危險情況時,如果這個專職駕駛沒有採取行動,你必須及時介入,否則事故的責任就是你來承擔。
是不是覺得這種情況有點反人類呢?買有自動駕駛功能車的人都喜歡當駕訓班的教練嗎?如果有了自動駕駛功能還需要我們自己全神貫注,而我們又難以一直保持全神貫注,那麼這些功能的意義還那麼大嗎?
我並不是一個反對自動駕駛技術的人。相反,我強烈支持自動駕駛技術的發展。我相信,當未來自動駕駛技術成熟之後,每個人都能夠節省大量的時間和精力,而且交通事故數量將會大幅降低。只不過,目前的自動駕駛還遠遠沒有達到可以大規模普及的成熟度。不但距離高等級的自動駕駛相距甚遠,而且就連基本的AEB,LKA和泊車等基本輔助功能都無法做到100%的可靠。
#(圖片來源:SAE International)
1918年,《科學美國人(Scientific American)》雜誌發布了一篇文章,配有題為“駕車者的夢想:一輛由一組按鍵控制的汽車」的圖片(如下圖),展示了一輛自動駕駛的電車。文章認為「…將來,帶方向盤的汽車將像今天帶有手動泵的汽車一樣過時!」
(圖片來源:Scientific American)
#在過去的近百年時間中,人類一直對自動駕駛有著執著的追求和不切實際的幻想,總是覺得再過20年,自動駕駛就可以實現了。遺憾的是,直到今天,也沒有人能夠準確的說出完全取消方向盤的汽車可以在什麼時候能夠開到馬路上。而且隨著人們逐漸接近這個夢想,愈發的體認到實現完全自動駕駛的難度與複雜度。
自動駕駛的實現,不是靠車輛本身,而是要靠整個交通系統的努力。也不是僅僅依靠OEM和自動駕駛的供應商,而是要依靠全社會的各個領域的共同進步。
以下是一些有感而發的建議:
#1. 完善智慧駕駛系統事故資料記錄系統的標準。
雖然國家已經有了EDR(Event Data Recorder,即汽車事件資料記錄系統)的相關標準,但只能記錄車輛的基本資訊。現階段智慧駕駛是否失靈,依舊由車企說了算,暫無有效的第三人監管。因為,海量的複雜數據除了車企和他們的供應商,沒有人能說清楚具體發生了什麼事。而導致這種現象的根本原因是沒有相關內容的更細化的國家標準,各個數據背後代表的含義是什麼,哪些數據在什麼時候是必須存儲下來的,等等這些要求都仍然缺少。建議相關的機構和協會等可以參考汽車OBD的做法盡快建立相應的標準,並不斷的改進。
2. 國家應建立統一的駕駛場景模擬資料庫,並將交通事故的詳細資訊同步注入。
自動駕駛演算法的完善需要海量的數據積累,任何一個單獨的企業都難以靠自身的力量在短時間內完成此種量級的數據積累,只有改變各企業單打獨鬥的局面,形成共創共贏的局面,學習開源軟體的做法,才能集全國之力讓我們的智慧駕駛真正走在世界的前列。
3. 對於車輛的准入,監管部門應該盡快推出更為細化的測試認證標準。
#儘管目前智慧駕駛仍然在發展階段,系統方案千差萬別,但一些基本的原則和方法還是可以在現階段定義出來的。而且,如果全國性的駕駛場景模擬資料庫一旦建立,就可以以此為基準,在雲端測試所有的新准入車輛。避免路試的漫長時間並降低成本。
4. 找到一條既有效率又可靠的OTA管理之路。 由於自動駕駛的演算法迭代速度很快,車企必然要透過OTA不斷更新軟體。而目前對於OTA的監管採用備案製度,這就導致了原本准入過的車輛在OTA之後可能會發生功能和性能的重大變化。如何找到一個既有效率又可靠的OTA管理方式,是目前汽車產業監管面臨的重大挑戰。
最後,衷心的祝福那些把寶都壓在自動駕駛上的企業,希望你們都能夠有足夠的資源和耐心熬過漫漫長夜,見到黎明的曙光!
以上是自動駕駛還要多久才能真正實現?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

寫在前面&筆者的個人理解三維Gaussiansplatting(3DGS)是近年來在顯式輻射場和電腦圖形學領域出現的一種變革性技術。這種創新方法的特點是使用了數百萬個3D高斯,這與神經輻射場(NeRF)方法有很大的不同,後者主要使用隱式的基於座標的模型將空間座標映射到像素值。 3DGS憑藉其明確的場景表示和可微分的渲染演算法,不僅保證了即時渲染能力,而且引入了前所未有的控制和場景編輯水平。這將3DGS定位為下一代3D重建和表示的潛在遊戲規則改變者。為此我們首次系統性地概述了3DGS領域的最新發展與關

昨天面試被問到了是否做過長尾相關的問題,所以就想著簡單總結一下。自動駕駛長尾問題是指自動駕駛汽車中的邊緣情況,即發生機率較低的可能場景。感知的長尾問題是目前限制單車智慧自動駕駛車輛運行設計域的主要原因之一。自動駕駛的底層架構和大部分技術問題已經解決,剩下的5%的長尾問題,逐漸成了限制自動駕駛發展的關鍵。這些問題包括各種零碎的場景、極端的情況和無法預測的人類行為。自動駕駛中的邊緣場景"長尾"是指自動駕駛汽車(AV)中的邊緣情況,邊緣情況是發生機率較低的可能場景。這些罕見的事件

0.寫在前面&&個人理解自動駕駛系統依賴先進的感知、決策和控制技術,透過使用各種感測器(如相機、光達、雷達等)來感知周圍環境,並利用演算法和模型進行即時分析和決策。這使得車輛能夠識別道路標誌、檢測和追蹤其他車輛、預測行人行為等,從而安全地操作和適應複雜的交通環境。這項技術目前引起了廣泛的關注,並認為是未來交通領域的重要發展領域之一。但是,讓自動駕駛變得困難的是弄清楚如何讓汽車了解周圍發生的事情。這需要自動駕駛系統中的三維物體偵測演算法可以準確地感知和描述周圍環境中的物體,包括它們的位置、

StableDiffusion3的论文终于来了!这个模型于两周前发布,采用了与Sora相同的DiT(DiffusionTransformer)架构,一经发布就引起了不小的轰动。与之前版本相比,StableDiffusion3生成的图质量有了显著提升,现在支持多主题提示,并且文字书写效果也得到了改善,不再出现乱码情况。StabilityAI指出,StableDiffusion3是一个系列模型,其参数量从800M到8B不等。这一参数范围意味着该模型可以在许多便携设备上直接运行,从而显著降低了使用AI

軌跡預測在自動駕駛中承擔著重要的角色,自動駕駛軌跡預測是指透過分析車輛行駛過程中的各種數據,預測車輛未來的行駛軌跡。作為自動駕駛的核心模組,軌跡預測的品質對於下游的規劃控制至關重要。軌跡預測任務技術堆疊豐富,需熟悉自動駕駛動/靜態感知、高精地圖、車道線、神經網路架構(CNN&GNN&Transformer)技能等,入門難度很高!許多粉絲期望能夠盡快上手軌跡預測,少踩坑,今天就為大家盤點下軌跡預測常見的一些問題和入門學習方法!入門相關知識1.預習的論文有沒有切入順序? A:先看survey,p

原文標題:SIMPL:ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving論文連結:https://arxiv.org/pdf/2402.02519.pdf程式碼連結:https://github.com/HKUST-Aerial-Robotics/SIMPLobotics單位論文想法:本文提出了一種用於自動駕駛車輛的簡單且有效率的運動預測基線(SIMPL)。與傳統的以代理為中心(agent-cent

最近一個月由於眾所周知的一些原因,非常密集地和業界的各種老師同學進行了交流。交流中必不可免的一個話題自然是端到端與火辣的特斯拉FSDV12。想藉此機會,整理當下這個時刻的一些想法和觀點,供大家參考和討論。如何定義端到端的自動駕駛系統,應該期望端到端解決什麼問題?依照最傳統的定義,端到端的系統指的是一套系統,輸入感測器的原始訊息,直接輸出任務關心的變數。例如,在影像辨識中,CNN相對於傳統的特徵提取器+分類器的方法就可以稱之為端到端。在自動駕駛任務中,輸入各種感測器的資料(相機/LiDAR

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP
