自动驾驶还要多久才能真正实现?
近日,一则关于某新势力的车辆在“智能驾驶辅助功能开启”状态下出现严重车祸(请原谅我用这么长的句子来描述这起车祸,因为我实在不希望惹上任何的麻烦)的新闻刷爆了网络,让大家又再一次关注自动驾驶的技术发展和相关的社会问题。
关于这起事故,从网络上可以获得的消息总结出来的场景过程大致是这样的:车主A在高架上开启了ACC(自适应巡航)和LCC(车道居中辅助),以80km/h的速度在最左侧车道行驶;突然前面出现了一辆静止在同车道上的车辆,车辆后方有一个人B;车主A的车辆没有刹车或避让,径直撞向了静止的车辆和人员B,造成了静止车辆后方的人员B死亡……
网传,事故车主A的说法是:“我开了辅助驾驶系统,系统没识别,正巧当时自己还分神了”。
那么,究竟事故的责任该由谁来承担?肇事车的车主?还是该车的设计与生产者?
虽然我没有自己购买过任何有这么“高级”智能驾驶功能的车辆,不清楚车辆用户手册或用户协议究竟怎么写的,但根据当前各个车企的普遍做法,车辆在执行智能驾驶功能时,车主必须时刻负责监控路面状况,并需要时刻准备接管车辆。
因为,无论大家在广告中吹的多么响亮,但所有人的心里都清楚的很,现在的智能驾驶还根本不能叫做自动驾驶,依然只是辅助驾驶,只能对驾驶员提供驾驶时的辅助功能,无法达到替代驾驶员的目的。
据《深圳经济特区智能网联汽车管理条例》第五十一条规定,有驾驶人的智能网联汽车发生道路交通安全违法情形,由公安机关交通管理部门依法对驾驶人进行处理。第五十四条规定,智能网联汽车发生交通事故,若因汽车本身存在缺陷造成损害的,车辆驾驶人或者所有人、管理人完成规定赔偿后,可以依法向生产者、销售者请求赔偿。
从上述的规定中可以看出,在出现事故时,驾驶人仍然是第一责任人,如果可以证明车辆本身有缺陷,则可以向车企要求赔偿。但,一个普通的消费者怎么可能证明车辆有缺陷呢?
我们在此并不想详细分析此次事故的原因--究竟是车辆本身的设计缺陷,还是驾驶员的责任;只想从此次事故入手分析一下当前智能驾驶的现状。
根据SAE J3016的自动驾驶划分标准,在L3以下级别,虽然转向、加速和减速等操作可以由车辆自动的自动驾驶系统负责,人类驾驶员还是要负责监控路面的所有情况。也就是说,在L3以下级别,自动驾驶系统只是辅助,驾驶员要对车辆的安全运行负全部的责任。
根据这种责任的划分,在当前自动驾驶技术远未成熟的情况下,就出现了各种L2.5、L2.9、L2.9+等各种颇有“创意”的、具有中国特色的命名方式。
各个OEM都在打擦边球,没有人敢拍着胸脯说自己的自动驾驶系统已经可以达到L3了。因为一旦宣称了是L3,那么车辆在L3自动驾驶状态下的事故的责任就需要车企来承担了。
在这种状态下,一方面,大家要互相比拼技术实力,不断推出看起来更加先进的自动驾驶功能,期望能够多卖一些车;另一方面,又不敢跨越L3这个边界半步。因为,只要不是L3,那么所有的事故就都跟自己无关,至少是在用户的手册中已经明确说明了驾驶员有责任要随时准备车辆的接管。
然而事实上,让我们换个角度思考这个事情,当你参加一个完全不需要你发言或记录内容的会议时,你会不会打瞌睡、看手机、发呆…… 现在的L2.X的辅助驾驶功能就是这样一种奇怪的存在,你不需要控制方向盘、刹车和油门;但是你还必须把手放在方向盘上,眼睛还要一直盯着前面,否则DMS等系统就会报警,提示你要专心的监控路面。
这种情形就好像你明明找了一个专职驾驶员,然后在他开车的时候你还必须时刻监督他。在出现了危险情况时,如果这个专职驾驶员没有采取行动,你就必须要及时介入,否则事故的责任就是你来承担。
是不是觉得这种情况有点反人类呢?难道买带自动驾驶功能车的人都喜欢当驾校的教练吗?如果有了自动驾驶功能还需要我们自己全神贯注,而我们又难以一直保持全神贯注,那么这些功能的意义还那么大吗?
我并不是一个反对自动驾驶技术的人。相反,我强烈支持自动驾驶技术的发展。我相信,当未来自动驾驶技术成熟之后,每个人都能够节省出大量的时间和精力,而且交通事故数量会大幅度降低。只不过,当前的自动驾驶还远远没有达到可以大规模普及的成熟度。不但距离高等级的自动驾驶相距甚远,而且就连基本的AEB,LKA和泊车等基本辅助功能都无法做到100%的可靠。
(图片来源:SAE International)
1918年,《科学美国人(Scientific American)》杂志发布了一篇文章,配有题为“驾车者的梦想:一辆由一组按键控制的汽车”的图片(如下图),展示了一辆自动驾驶的有轨电车。文章认为“…将来,带方向盘的汽车将像今天带有手动泵的汽车一样过时!”
(图片来源:Scientific American)
在过去的近百年时间中,人类一直对自动驾驶有着执着的追求和不切合实际的幻想,总是觉得再过20年,自动驾驶就可以实现了。遗憾的是,直到今天,也没有人能够准确的说出完全取消方向盘的汽车可以在什么时候能够开到马路上。而且随着人们逐渐接近这个梦想,愈发的认识到实现完全自动驾驶的难度与复杂度。
自动驾驶的实现,不是靠车辆本身,而是要靠整个交通系统的努力。也不是仅仅依靠OEM和自动驾驶的供应商,而是要依靠全社会的各个领域的共同进步。
下面是一些有感而发的建议:
1. 完善智能驾驶系统事故数据记录系统的标准。
虽然国家已经有了EDR(Event Data Recorder,即汽车事件数据记录系统)的相关标准,但仅能记录车辆的基本信息。现阶段智能驾驶是否失灵,依旧由车企说了算,暂无有效的第三方监管。因为,海量的复杂数据除了车企和他们的供应商,谁都无法说清楚具体发生了什么。而导致这种现象的根本原因是没有相关内容的更细化的国家标准,各个数据背后代表的含义是什么,哪些数据在什么时候是必须存储下来的,等等这些要求都仍然缺少。建议相关的机构和协会等可以参考汽车OBD的做法尽快建立相应的标准,并不断的完善。
2. 国家应建立统一的驾驶场景仿真数据库,并将交通事故的详细信息同步注入。
自动驾驶算法的完善需要海量的数据积累,任何一个单独的企业都难以靠自身的力量在短时间内完成此种量级的数据积累,只有改变各个企业单打独斗的局面,形成共创共赢的局面,学习开源软件的做法,才能集全国之力让我们的智能驾驶真正走在世界的前列。
3. 对于车辆的准入,监管部门应该尽快出台更为细化的测试认证标准。
尽管当前智能驾驶仍然在发展阶段,系统方案千差万别,但一些基本的原则和方法还是可以在现阶段定义出来的。而且,如果全国性的驾驶场景仿真数据库一旦建立,就可以以此为基准,在云端测试所有的新准入车辆。避免路试的漫长时间并降低成本。
4. 找到一条既高效又可靠的OTA管理之路。由于自动驾驶的算法迭代速度很快,车企必然要通过OTA不断更新软件。而目前对于OTA的监管采用备案制度,这就导致了原本准入过的车辆在OTA之后可能会发生功能和性能的重大变化。如何找到一个既高效又可靠的OTA管理方式,是当前汽车行业监管面临的一个重大挑战。
最后,衷心的祝福那些把宝都压在自动驾驶上的企业,希望你们都能够有足够的资源和耐心熬过漫漫长夜,见到黎明的曙光!
以上是自动驾驶还要多久才能真正实现?的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

写在前面&笔者的个人理解三维Gaussiansplatting(3DGS)是近年来在显式辐射场和计算机图形学领域出现的一种变革性技术。这种创新方法的特点是使用了数百万个3D高斯,这与神经辐射场(NeRF)方法有很大的不同,后者主要使用隐式的基于坐标的模型将空间坐标映射到像素值。3DGS凭借其明确的场景表示和可微分的渲染算法,不仅保证了实时渲染能力,而且引入了前所未有的控制和场景编辑水平。这将3DGS定位为下一代3D重建和表示的潜在游戏规则改变者。为此我们首次系统地概述了3DGS领域的最新发展和关

昨天面试被问到了是否做过长尾相关的问题,所以就想着简单总结一下。自动驾驶长尾问题是指自动驾驶汽车中的边缘情况,即发生概率较低的可能场景。感知的长尾问题是当前限制单车智能自动驾驶车辆运行设计域的主要原因之一。自动驾驶的底层架构和大部分技术问题已经被解决,剩下的5%的长尾问题,逐渐成了制约自动驾驶发展的关键。这些问题包括各种零碎的场景、极端的情况和无法预测的人类行为。自动驾驶中的边缘场景"长尾"是指自动驾驶汽车(AV)中的边缘情况,边缘情况是发生概率较低的可能场景。这些罕见的事件

0.写在前面&&个人理解自动驾驶系统依赖于先进的感知、决策和控制技术,通过使用各种传感器(如相机、激光雷达、雷达等)来感知周围环境,并利用算法和模型进行实时分析和决策。这使得车辆能够识别道路标志、检测和跟踪其他车辆、预测行人行为等,从而安全地操作和适应复杂的交通环境.这项技术目前引起了广泛的关注,并认为是未来交通领域的重要发展领域之一。但是,让自动驾驶变得困难的是弄清楚如何让汽车了解周围发生的事情。这需要自动驾驶系统中的三维物体检测算法可以准确地感知和描述周围环境中的物体,包括它们的位置、

StableDiffusion3的论文终于来了!这个模型于两周前发布,采用了与Sora相同的DiT(DiffusionTransformer)架构,一经发布就引起了不小的轰动。与之前版本相比,StableDiffusion3生成的图质量有了显着提升,现在支持多主题提示,并且文字书写效果也得到了改善,不再出现乱码情况。 StabilityAI指出,StableDiffusion3是一个系列模型,其参数量从800M到8B不等。这一参数范围意味着该模型可以在许多便携设备上直接运行,从而显着降低了使用AI

轨迹预测在自动驾驶中承担着重要的角色,自动驾驶轨迹预测是指通过分析车辆行驶过程中的各种数据,预测车辆未来的行驶轨迹。作为自动驾驶的核心模块,轨迹预测的质量对于下游的规划控制至关重要。轨迹预测任务技术栈丰富,需要熟悉自动驾驶动/静态感知、高精地图、车道线、神经网络架构(CNN&GNN&Transformer)技能等,入门难度很大!很多粉丝期望能够尽快上手轨迹预测,少踩坑,今天就为大家盘点下轨迹预测常见的一些问题和入门学习方法!入门相关知识1.预习的论文有没有切入顺序?A:先看survey,p

原标题:SIMPL:ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving论文链接:https://arxiv.org/pdf/2402.02519.pdf代码链接:https://github.com/HKUST-Aerial-Robotics/SIMPL作者单位:香港科技大学大疆论文思路:本文提出了一种用于自动驾驶车辆的简单高效的运动预测基线(SIMPL)。与传统的以代理为中心(agent-cent

写在前面&出发点端到端的范式使用统一的框架在自动驾驶系统中实现多任务。尽管这种范式具有简单性和清晰性,但端到端的自动驾驶方法在子任务上的性能仍然远远落后于单任务方法。同时,先前端到端方法中广泛使用的密集鸟瞰图(BEV)特征使得扩展到更多模态或任务变得困难。这里提出了一种稀疏查找为中心的端到端自动驾驶范式(SparseAD),其中稀疏查找完全代表整个驾驶场景,包括空间、时间和任务,无需任何密集的BEV表示。具体来说,设计了一个统一的稀疏架构,用于包括检测、跟踪和在线地图绘制在内的任务感知。此外,重

这篇论文探讨了在自动驾驶中,从不同视角(如透视图和鸟瞰图)准确检测物体的问题,特别是如何有效地从透视图(PV)到鸟瞰图(BEV)空间转换特征,这一转换是通过视觉转换(VT)模块实施的。现有的方法大致分为两种策略:2D到3D和3D到2D转换。2D到3D的方法通过预测深度概率来提升密集的2D特征,但深度预测的固有不确定性,尤其是在远处区域,可能会引入不准确性。而3D到2D的方法通常使用3D查询来采样2D特征,并通过Transformer学习3D和2D特征之间对应关系的注意力权重,这增加了计算和部署的
