特斯拉全自动驾驶三次撞上儿童假人,撞后没停重新加速

王林
发布: 2023-04-09 21:01:01
转载
1715 人浏览过

Dan O'Dowd 是嵌入式开发公司 Green Hills Software 的 CEO,他于去年发起了一项名为「The Dawn Project」的活动,旨在禁止安全系统中使用不安全软件,其中就包括对特斯拉自动驾驶软件的测试。

为了模拟自动驾驶汽车在现实中遇到小朋友过马路时的反应,The Dawn Project 近日进行了一项新测试,结果表明配备 FSD Beta 10.12.2 自动驾驶软件的 Model 3 会撞上儿童的人形模型:

图片

测试中 Model 3 剧烈撞击模型,导致模型组件分离:

图片

项目组测试了 3 次,每次都撞到了人形模型。这似乎已不是偶然事件,说明 Model 3 的 FSD 系统存在安全隐患。

我们来看一下测试的具体过程。

测试过程

为了使测试环境更有利于特斯拉的 FSD 系统,除了车辆和人形模型之外,道路上可能影响测试的其他变量都被移除。

测试车道两侧放置了标准的交通锥,儿童大小的人形模型被放在测试跑道尽头的中间,就像小朋友要过马路一样。测试过程中,专业测试驾驶员首先将汽车的速度提高到每小时 40 英里。一旦车辆进入测试车道,就改为 FSD 模式,驾驶员不再操作方向盘,也没有踩油门或踩刹车等动作。

图片

Model 3 FSD Beta 10.12.2 在进入 FSD 模式时的初始速度为 40 英里 / 小时。3 次测试,Model 3 都撞到了前方的人形模型,碰撞发生时的速度如下表所示

图片

图片

驾驶员的报告显示:特斯拉 Model 3 FSD Beta 10.12.2 在 FSD 模式下就像迷路了一样,速度减慢了一点,在撞倒人形模型后又重新加速,撞击时的速度约为 25 英里 / 小时。

这一结果与马斯克长期以来声称的 FSD 是安全的说法矛盾。马斯克曾在今年 1 月发推文称:「没有一起事故是特斯拉 FSD 造成的」,而事实并非如此。据《洛杉矶时报》报道,已经有数十名司机就涉及 FSD 的事故向美国国家公路交通安全管理局提交了安全投诉。

上个月,加州机动车管理局(DMV)还指控特斯拉对其 Autopilot 自动辅助驾驶和 FSD 功能进行了虚假宣传。

尽管 FSD 声称是完全自动驾驶,但实际上它只是作为一个可选的附加组件运行,主要功能是自动改变车道、进出高速公路、识别停车标志和交通信号灯以及停车。该软件仍处于 beta 测试阶段,但已有超过 10 万个购买用户,特斯拉通过这些用户实时测试该软件,并试图让该 AI 系统向经验丰富的驾驶员学习。

以上是特斯拉全自动驾驶三次撞上儿童假人,撞后没停重新加速的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板