美国汽车安全监管机构又对特斯拉展开了调查,这次是针对FSD。
当地时间10月19日,美国国家公路交通安全管理局(NHTSA)公开的文件显示,该机构已经正式对特斯拉FSD(Full-Self Driving,完全自动驾驶)启动调查。
NHTSA表示,在接到四起事故报告(包括2023年的一起致命事故)后,他们决定展开调查。“这些事故发生时,道路能见度都较低(如阳光刺眼、起雾或空中扬尘),且FSD系统都处于运行模式。”
因此,NHTSA缺陷调查办公室(ODI)将评估FSD的工程控制检测和适当应对道路能见度降低情况的能力。此次调查涉及约241万辆汽车,包括2016-2024年款 Model X ( 参数 丨 图片 )、 Model S ;2017-2024年款 Model 3 ;2020-2024年款 Model Y 等。
在这次调查之前,NHTSA已经与特斯拉的驾驶辅助系统Autopilot“纠缠”了多年。今年4月,在对特斯拉进行了长达三年的调查后,NHTSA刚刚宣布,特斯拉Autopilot存在关键安全缺口,并进行新一轮的调查。
在特斯拉想要推广“自动驾驶”的路上,NHTSA始终“伴”其左右。
01
ODI已对特斯拉FSD进行了初步评估
FSD是特斯拉完全自动驾驶系统的简称,于2020年推出,目前处于测试版阶段,部分用户可以参与特斯拉的“FSD Beta计划”,该计划允许有限的用户在实际驾驶中使用FSD功能,但驾驶员需要始终保持对车辆的控制和注意力。
根据特斯拉的描述,该系统通过车载摄像头、传感器阵列等设备实现对周围环境的实时解析、道路与障碍物的精准识别,以及路径规划和行驶决策。最终目标是实现车辆在没有人为干预的情况下,自主识别路况、规划路线、控制速度和方向,完成从起点到终点的行驶。
马斯克乘坐Cybercab入场
而就在不久前的10月11日,在特斯拉“WE,ROBOT”发布会上,特斯拉创始人马斯克刚刚表示,Model 3以及Model Y的无人驾驶技术会大幅提升,将实现无人驾驶的完全自动驾驶技术,预计在明年,所有新车型将在加利福尼亚州和德克萨斯州上路,并配备无人监督的全自动驾驶软件。
马斯克对FSD的自动驾驶水平表现出了高度自信,并表示FSD的安全水平可以超过人类驾驶十倍左右。
但显然,NHTSA对其并不认可,至少目前还不认可。
NHTSA的缺陷调查办公室发现了四起交通事故报告,这些案例都是特斯拉车辆在启用FSD功能后发生的事故。事故中,特斯拉汽车在道路能见度降低的情况下未能有效应对环境,导致了碰撞事故的发生。
其中一起事故甚至造成了人员死亡。2023年11月,一名行人在美国亚利桑那州被一辆2021款特斯拉Model Y撞死。
这不是唯一的一起涉及FSD技术的致死事故。今年4月,在美国西雅图地区,一辆特斯拉Model S汽车在FSD模式下撞死了一名28岁的摩托车手。
据悉,ODI已经对特斯拉FSD进行了初步评估,并将评估该技术在道路能见度降低的情况下进行检测和适当响应的能力。
今年以来,特斯拉在全球销量表现疲软,马斯克正试图通过自动驾驶技术和Robotaxi来获得市场进一步认可,如果一旦被认为FSD存在风险,无论是对其技术的推进,还是市场价值都会有比较大的负面影响。
02
NHTSA认为特斯拉Autopilot有安全缺口
这不是NHTSA第一次对特斯拉智能驾驶进行调查。
正如开头所言,NHTSA曾对特斯拉Autopilot进行过调查。
特斯拉Autopilot是L2级别自动驾驶,在车辆智驾时需要驾驶员“始终监控交通环境”,并随时准备接管控制权。由于产品的名字里有自动(Auto)一词,使得不少特斯拉驾驶员认为这车能“自动”开。
2021年8月中旬,NHTSA对外表示,已经对特斯拉的自动辅助驾驶系统启动正式调查。调查涉及大约76.5万辆特斯拉Model Y、Model X、Model S、Model 3车辆。NHTSA称,这一问题此前已引发11起事故或火灾,导致17人受伤和1人死亡。
同年,8月底,随着美国佛罗里达州奥兰多市“第12起事故”的发生,NHTSA又给特斯拉发送了一封长达11页的信件,要求其给出所有车辆信息,并具体阐述自动驾驶模式下车辆如何应对紧急事故。
据 NHTSA 称,在这11 起事故中,特斯拉汽车均启用了自动驾驶仪或交通感知巡航控制系统。大多数事件发生在天黑后,涉及急救人员灯光、照明弹、发光箭头板或路锥。
它希望弄清楚,Autopilot缺陷或设计问题是否与一系列撞车事故有关,甚至是直接原因。
然而当时特斯拉并没有给出相应回应,反而于2021年9月通过无线软件更新方式向客户推送了“应急灯检测更新”。
紧接着,当年10月中旬,NHTSA在官网又发布“致特斯拉的一封信”,要求其就上述采取的行动提供更多信息。
有意思的是,信件发布后不久,特斯拉没有回应置评请求,反而在Twitter上发文表示:“安全将通过无线更新继续提高。”
与此同时,围绕11起事故展开的PE21020升级成了正式的EA22002号工程分析(engineering analysis)。
双方的“拉锯战”一直持续到今年4月底,算是阶段性的结束。NHTSA宣布,调查结果显示,在涉及的956起事故中,“关键安全缺口”造成了467起事故。
其中,在211起事故中,特斯拉车辆在有足够反应时间的情况下,正面撞上其他车辆或障碍物;另外还有256起事故与驾驶员误操作Autosteer(自动转向)系统,或该系统在雨天等低摩擦力环境下被错误激活有关。
与车企强调“没有辅助驾驶马路上也会有大量致死事故”不同,NHTSA的视角则是这些系统的设计,是否会造成驾驶员“过分自信”,从而导致一系列本可以避免的事故。
在NHTSA看来,目前自动驾驶系统的发展水平,并不值得人类完全的信任,而特斯拉的设计可能导致“可预见的错误使用和可避免的碰撞”。
尽管此次探查结束,但NHTSA透露,它正在启动一项新调查,以评估特斯拉去年12月对超过200万辆汽车实施的召回修复,是否确实足以解决围绕其Autopilot驾驶员辅助系统的安全问题。
实际上,去年10月,特斯拉也曾表示,美国司法部发出了与其FSD和Autopilot系统相关的传票。
03
纯视觉或是多起事故的“元凶”
无论是特斯拉的Autopilot,还是FSD,采用的都是纯视觉方案,有业内人士认为,纯视觉在光照条件不好的时候,比如逆光、黑夜、大雾或者是摄像头遭到遮挡,会出现感知能力下降的问题,导致事故的发生。
今年7月底,《华尔街日报》也曾发布一段针对特斯拉Autopilot事故的深度调查视频,通过对这些视频的逐帧解读以及向专家咨询,认为特斯拉的自动驾驶系统导致的碰撞和特斯拉的纯视觉方案有关。
《华尔街日报》指出,在一些情况下,特斯拉的Autopilot系统在面对障碍物时表现不佳,并暗示该系统在启用时,车辆可能会偏离道路。“这些事故中,不少案例显示特斯拉车辆在使用Autopilot时撞上了已经亮起警示灯的紧急车辆”。
它认为,这些事故中的细节似乎被隐藏了起来,特斯拉和NHTSA都未公开一些关键信息,包括“事故描述”以及事件发生的具体日期等细节。原因是特斯拉认为,这些数据是专有的,因此大部分数据对公众隐藏。
报道采访了2022年因发布特斯拉Autopilot功能失效视频而被特斯拉解雇的约翰·贝纳尔,后者发现一些特斯拉车型上使用的摄像头没有正确校准,导致不同的摄像头识别到的东西不一样。而当不同摄像头识别到的东西不一样时,Autopilot就可能在识别障碍物上出现问题。
《华尔街日报》从一名匿名黑客那里获得了一组罕见的特斯拉因使用Autopilot功能导致撞车事故原始数据,而数据验证了约翰·贝纳尔的说法。
当一辆被撞坏的车出现在路上时,特斯拉Autopilot系统中的其中一个摄像头识别到了它,但另一个摄像头没有识别。然后,随着障碍物越来越近,特斯拉Autopilot系统没有做出动作,全速撞了上去。
今年以来,伴随着体验的升级,特斯拉FSD在北美已经开始广泛推送,甚至传出即将落地中国。
尽管最新消息显示,据《中国日报》报道,中国政府支持其在遵循现有法律法规的前提下,先行先试部分FSD功能,但FSD入华尚未得到监管部门批准,相关评估工作还在进行中。
但显然,特斯拉FSD入华是迟早的事情。在新技术落地上车,涉及人身安全的时刻,有NHTSA对特斯拉不断敲打,也不失为一件幸事。
热门跟贴