虽然最新的特斯拉 FSD 12.5 更新正在向公众推出,但两家主要商业出版物却发布了有关特斯拉驾驶员辅助系统的负面报道。
彭博社援引了一位卖方分析师的轶事证据,该分析师在给客户的一份报告中详细介绍了他在特斯拉 FSD 演示驾驶中的经历。他必须在特殊情况下进行几次干预,例如遵守交通官员的手势,但在更平常的情况下也必须进行干预。
例如,特斯拉 Model Y 反复越过不间断的车道标记,或者加速驶入十字路口,因为计算机误读了另一辆车刚刚右转的一半情况。不过,Model Y 运行的是 FSD 12.3.6,分析师确实注意到,与他们今年早些时候测试的前一个版本相比,有一些显着的改进。
另一篇关于特斯拉自动驾驶汽车雄心的负面文章提出了更严重的指控,并提供了独家证据。 《华尔街日报》调查人员从打捞的特斯拉汽车中获取了 FSD 计算机,并将其发送给黑客以提取原始自动驾驶仪数据。
特斯拉将此类数据作为商业秘密,因为它显示了其驾驶员辅助算法如何即时思考和反应,因为它们仅依赖于解释一些 Tesla Vision 摄像头的输入。
从原始自动驾驶仪决策数据抓取中学到的知识,然后与特斯拉汽车摄像头的事故镜头进行配对。 《华尔街日报》还将各个州的报告与 NHTSA 为自己的事故调查而维护的联邦事故数据库进行了比对,并成功重现了 222 起特斯拉事故。
其中 44 起事故是由于使用 Autopilot 的特斯拉汽车“突然转向”而发生的,而 31 起事故是由于车辆“未能停车或让道”而发生的。调查发现,后者导致特斯拉在自动驾驶仪下行驶时发生最严重的事故。
看过此类事故的镜头以及自动驾驶系统算法工作方式的专家表示,需要时间来训练它适应道路上发生的所有情况。例如,其中一起致命事故是由于未能识别出一辆翻倒的双拖车堵塞了高速公路。
系统不知道这是什么,所以全速撞向了拖车。有很多例子表明,自动驾驶仪会被紧急车辆的灯光迷惑并撞上它们。
总体而言,调查结果指出,特斯拉自动驾驶汽车发生事故的原因有硬件和软件两方面的原因。提到的问题包括算法更新缓慢和相机校准不足等。然而,在这次自动驾驶仪数据泄露成功挑战埃隆·马斯克的主要假设(即特斯拉的自动驾驶功能最终比人类驾驶员更安全)之前,可能需要来自独立来源的更深入的报道。
在亚马逊上获取带 24 英尺电缆的 80A Tesla Gen 2 墙壁连接器
以上是被黑客入侵的特斯拉 FSD 计算机泄露了有关致命自动驾驶仪事故的令人震惊的原始数据的详细内容。更多信息请关注PHP中文网其他相关文章!