美国汽车安全监管机构又对特斯拉展开了调查,这次是针对 FSD。
当地时间 10 月 19 日,美国国家公路交通安全管理局(NHTSA)公开的文件显示,该机构已经正式对特斯拉 FSD(Full-Self Driving,完全自动驾驶)启动调查。
NHTSA 表示,在接到四起事故报告(包括 2023 年的一起致命事故)后,他们决定展开调查。” 这些事故发生时,道路能见度都较低(如阳光刺眼、起雾或空中扬尘),且 FSD 系统都处于运行模式。”
因此,NHTSA 缺陷调查办公室(ODI)将评估 FSD 的工程控制检测和适当应对道路能见度降低情况的能力。此次调查涉及约 241 万辆汽车,包括 2016-2024 年款 Model X、Model S;2017-2024 年款 Model 3;2020-2024 年款 Model Y 等。
NHTSA 正式对特斯拉 FSD 启动调查
在这次调查之前,NHTSA 已经与特斯拉的驾驶辅助系统 Autopilot” 纠缠 ” 了多年。今年 4 月,在对特斯拉进行了长达三年的调查后,NHTSA 刚刚宣布,特斯拉 Autopilot 存在关键安全缺口,并进行新一轮的调查。
在特斯拉想要推广 ” 自动驾驶 ” 的路上,NHTSA 始终 ” 伴 ” 其左右。
FSD 是特斯拉完全自动驾驶系统的简称,于 2020 年推出,目前处于测试版阶段,部分用户可以参与特斯拉的 “FSD Beta 计划 “,该计划允许有限的用户在实际驾驶中使用 FSD 功能,但驾驶员需要始终保持对车辆的控制和注意力。
根据特斯拉的描述,该系统通过车载摄像头、传感器阵列等设备实现对周围环境的实时解析、道路与障碍物的精准识别,以及路径规划和行驶决策。最终目标是实现车辆在没有人为干预的情况下,自主识别路况、规划路线、控制速度和方向,完成从起点到终点的行驶。
马斯克乘坐 Cybercab 入场
而就在不久前的 10 月 11 日,在特斯拉 “WE,ROBOT” 发布会上,特斯拉创始人马斯克刚刚表示,Model 3 以及 Model Y 的无人驾驶技术会大幅提升,将实现无人驾驶的完全自动驾驶技术,预计在明年,所有新车型将在加利福尼亚州和德克萨斯州上路,并配备无人监督的全自动驾驶软件。
马斯克对 FSD 的自动驾驶水平表现出了高度自信,并表示 FSD 的安全水平可以超过人类驾驶十倍左右。
但显然,NHTSA 对其并不认可,至少目前还不认可。
NHTSA 的缺陷调查办公室发现了四起交通事故报告,这些案例都是特斯拉车辆在启用 FSD 功能后发生的事故。事故中,特斯拉汽车在道路能见度降低的情况下未能有效应对环境,导致了碰撞事故的发生。
其中一起事故甚至造成了人员死亡。2023 年 11 月,一名行人在美国亚利桑那州被一辆 2021 款特斯拉 Model Y 撞死。
这不是唯一的一起涉及 FSD 技术的致死事故。今年 4 月,在美国西雅图地区,一辆特斯拉 Model S 汽车在 FSD 模式下撞死了一名 28 岁的摩托车手。
据悉,ODI 已经对特斯拉 FSD 进行了初步评估,并将评估该技术在道路能见度降低的情况下进行检测和适当响应的能力。
今年以来,特斯拉在全球销量表现疲软,马斯克正试图通过自动驾驶技术和 Robotaxi 来获得市场进一步认可,如果一旦被认为 FSD 存在风险,无论是对其技术的推进,还是市场价值都会有比较大的负面影响。
这不是 NHTSA 第一次对特斯拉智能驾驶进行调查。
正如开头所言,NHTSA 曾对特斯拉 Autopilot 进行过调查。
特斯拉 Autopilot 是 L2 级别自动驾驶,在车辆智驾时需要驾驶员 ” 始终监控交通环境 “,并随时准备接管控制权。由于产品的名字里有自动(Auto)一词,使得不少特斯拉驾驶员认为这车能 ” 自动 ” 开。
2021 年 8 月中旬,NHTSA 对外表示,已经对特斯拉的自动辅助驾驶系统启动正式调查。调查涉及大约 76.5 万辆特斯拉 Model Y、Model X、Model S、Model 3 车辆。NHTSA 称,这一问题此前已引发 11 起事故或火灾,导致 17 人受伤和 1 人死亡。
2021 年 8 月一辆特斯拉 Model 3 在奥兰多撞上佛罗里达州公路巡逻车
同年,8 月底,随着美国佛罗里达州奥兰多市 ” 第 12 起事故 ” 的发生,NHTSA 又给特斯拉发送了一封长达 11 页的信件,要求其给出所有车辆信息,并具体阐述自动驾驶模式下车辆如何应对紧急事故。
据 NHTSA 称,在这 11 起事故中,特斯拉汽车均启用了自动驾驶仪或交通感知巡航控制系统。大多数事件发生在天黑后,涉及急救人员灯光、照明弹、发光箭头板或路锥。
它希望弄清楚,Autopilot 缺陷或设计问题是否与一系列撞车事故有关,甚至是直接原因。
然而当时特斯拉并没有给出相应回应,反而于 2021 年 9 月通过无线软件更新方式向客户推送了 ” 应急灯检测更新 “。
紧接着,当年 10 月中旬,NHTSA 在官网又发布 ” 致特斯拉的一封信 “,要求其就上述采取的行动提供更多信息。
有意思的是,信件发布后不久,特斯拉没有回应置评请求,反而在 Twitter 上发文表示:” 安全将通过无线更新继续提高。”
与此同时,围绕 11 起事故展开的 PE21020 升级成了正式的 EA22002 号工程分析(engineering analysis)。
NHTS 认为,” 关键安全缺口 ” 造成 467 起事故
双方的 ” 拉锯战 ” 一直持续到今年 4 月底,算是阶段性的结束。NHTSA 宣布,调查结果显示,在涉及的 956 起事故中,” 关键安全缺口 ” 造成了 467 起事故。
其中,在 211 起事故中,特斯拉车辆在有足够反应时间的情况下,正面撞上其他车辆或障碍物;另外还有 256 起事故与驾驶员误操作 Autosteer(自动转向)系统,或该系统在雨天等低摩擦力环境下被错误激活有关。
与车企强调 ” 没有辅助驾驶马路上也会有大量致死事故 ” 不同,NHTSA 的视角则是这些系统的设计,是否会造成驾驶员 ” 过分自信 “,从而导致一系列本可以避免的事故。
在 NHTSA 看来,目前自动驾驶系统的发展水平,并不值得人类完全的信任,而特斯拉的设计可能导致 ” 可预见的错误使用和可避免的碰撞 “。
尽管此次探查结束,但 NHTSA 透露,它正在启动一项新调查,以评估特斯拉去年 12 月对超过 200 万辆汽车实施的召回修复,是否确实足以解决围绕其 Autopilot 驾驶员辅助系统的安全问题。
实际上,去年 10 月,特斯拉也曾表示,美国司法部发出了与其 FSD 和 Autopilot 系统相关的传票。
无论是特斯拉的 Autopilot,还是 FSD,采用的都是纯视觉方案,有业内人士认为,纯视觉在光照条件不好的时候,比如逆光、黑夜、大雾或者是摄像头遭到遮挡,会出现感知能力下降的问题,导致事故的发生。
今年 7 月底,《华尔街 · 日报》也曾发布一段针对特斯拉 Autopilot 事故的深度调查视频,通过对这些视频的逐帧解读以及向专家咨询,认为特斯拉的自动驾驶系统导致的碰撞和特斯拉的纯视觉方案有关。
视频中特斯拉与侧翻卡车发生事故
《华尔街 · 日报》指出,在一些情况下,特斯拉的 Autopilot 系统在面对障碍物时表现不佳,并暗示该系统在启用时,车辆可能会偏离道路。” 这些事故中,不少案例显示特斯拉车辆在使用 Autopilot 时撞上了已经亮起警示灯的紧急车辆 “。
它认为,这些事故中的细节似乎被隐藏了起来,特斯拉和 NHTSA 都未公开一些关键信息,包括 ” 事故描述 ” 以及事件发生的具体日期等细节。原因是特斯拉认为,这些数据是专有的,因此大部分数据对公众隐藏。
报道采访了 2022 年因发布特斯拉 Autopilot 功能失效视频而被特斯拉解雇的约翰 · 贝纳尔,后者发现一些特斯拉车型上使用的摄像头没有正确校准,导致不同的摄像头识别到的东西不一样。而当不同摄像头识别到的东西不一样时,Autopilot 就可能在识别障碍物上出现问题。
《华尔街 · 日报》从一名匿名黑客那里获得了一组罕见的特斯拉因使用 Autopilot 功能导致撞车事故原始数据,而数据验证了约翰 · 贝纳尔的说法。
《华尔街 · 日报》从匿名黑客处获得事故原始数据
当一辆被撞坏的车出现在路上时,特斯拉 Autopilot 系统中的其中一个摄像头识别到了它,但另一个摄像头没有识别。然后,随着障碍物越来越近,特斯拉 Autopilot 系统没有做出动作,全速撞了上去。
今年以来,伴随着体验的升级,特斯拉 FSD 在北美已经开始广泛推送,甚至传出即将落地中国。
尽管最新消息显示,据《中国日报》报道,中国政府支持其在遵循现有法律法规的前提下,先行先试部分 FSD 功能,但 FSD 入华尚未得到监管部门批准,相关评估工作还在进行中。
但显然,特斯拉 FSD 入华是迟早的事情。在新技术落地上车,涉及人身安全的时刻,有 NHTSA 对特斯拉不断敲打,也不失为一件幸事。
本文来自微信公众号 ” 赛博汽车 “,作者:章涟漪,编辑:邱锴俊,36 氪经授权发布。