凌晨的铁路道口,一辆特斯拉突然启动,撞断护栏,与疾驰的列车擦肩而过——司机Joshua Brown事后承认,他当时"走神了"。
这句话暴露了自动驾驶最危险的灰色地带:当系统接管驾驶,人类注意力却悄然撤离。
惊魂90秒:系统何时接管了控制权?
事件发生在德克萨斯州普莱诺市。Brown驾车抵达铁路道口,停车等待列车通过。据他向当地媒体描述,车辆当时处于完全自动驾驶模式(FSD)。
等待过程中,Brown"走神了"——这个细节至关重要。对普通司机而言,红灯或等待列车时短暂分心极为常见。但FSD系统在此刻做出了致命判断:车辆突然启动,径直撞向道口护栏。
「大概就在我意识到车子在动的时候,护栏已经就在眼前了,」Brown回忆道。
玻璃纤维材质的道口护栏被撞碎,碎片击碎车窗。车载后视摄像头记录下惊险一幕:达拉斯地区捷运(DART)的列车呼啸而过,距离车辆仅几个车身长度。
Brown的回应带着劫后余生的复杂情绪:「我想说我没被吓到,但确实有点后怕。说到底,如果命该如此,那也没办法——但上帝眷顾了我,我很感激自己还活着。」
责任边界:特斯拉的免责声明与司机的反驳
事件发生后,Brown明确表示不会起诉特斯拉。但他转述了公司的标准回应:「他们说你开车时应该保持主动参与。」
这个条款存在于所有FSD用户协议中,却与真实使用场景存在根本张力。Brown的反驳直指核心矛盾:「说实话,我当时确实在主动参与,不然我可能已经死了。」
这句话揭示了自动驾驶安全设计的深层困境。系统要求人类"随时接管",但人类注意力天然会在系统运行时衰减——这是认知科学的基本事实,而非道德缺陷。
Brown给出了自己的解决方案:「我保证,以后在铁路道口,我的脚会悬在刹车上——或者直接关闭FSD。不会再信任它能乖乖停着了。」
从"信任系统"到"主动防御",这位司机的行为转变,折射出用户对自动驾驶信任曲线的真实崩塌轨迹。
历史的回响:两个Joshua Brown的宿命对照
报道中一个令人不安的巧合:这位德州司机与2016年佛罗里达州致命事故遇难者同名同姓。
2016年5月,佛罗里达的Joshua Brown驾驶特斯拉Model S,在Autopilot模式下与一辆横穿公路的拖车相撞身亡。调查称他当时正在观看《哈利·波特》电影——这是全球首例公开的自动驾驶致死事故。
近十年过去,两个同名者的经历形成残酷对照:一个因过度信任系统丧生,一个因及时干预幸存。而特斯拉的自动驾驶技术,仍在"识别静止障碍物"这一基础场景上反复跌倒。
铁路道口对自动驾驶系统而言是经典难题。列车轨道在视觉特征上类似于道路标线,静止等待状态与正常行驶状态的切换逻辑复杂。2016年的事故涉及横向移动的拖车,2024年的险情则是纵向静止后的突然启动——技术路径不同,失败模式却同样指向系统对"何时该不动"的判断混乱。
产品视角:FSD的"过度进取"设计哲学
从产品经理角度审视,这起事件暴露了特斯拉FSD的一个核心特征:系统在不确定性场景下倾向于"行动"而非"保守"。
铁路道口等待时,车辆本应保持静止——这是最安全的状态。但FSD选择了启动前进,说明其决策算法将某种信号误判为"可以通行"的指令。这种"进取型"设计在开放道路可能提升通行效率,在封闭道口却成为致命缺陷。
Brown的"走神"在此语境下需要重新理解。人类司机在明确等待场景(红灯、道口栏杆放下)中降低注意力,是基于环境安全信号的合理行为。FSD的问题在于,它没有建立与这些环境信号匹配的"绝对静止"触发机制。
更值得追问的是系统状态提示。Brown"意识到车子在动"时才惊觉危险,说明FSD在启动前缺乏足够明显的警示——或警示被司机忽略。无论哪种情况,人机交互设计都未能阻止错误决策的执行。
行业镜鉴:自动驾驶的信任重建之路
这起事件发生在特斯拉FSD大规模推送的关键节点。2024年,特斯拉将FSD订阅价格从每月199美元降至99美元,并扩大免费试用范围,用户基数急剧膨胀。
但技术成熟度与商业扩张的速度差正在制造系统性风险。Brown的经历并非孤例——社交媒体和监管机构记录中,FSD在铁路道口、施工区域、紧急车辆停靠等场景的事故频发。
特斯拉的应对策略始终是"强化用户教育":强调双手不得离开方向盘,视线不得离开路面。但这种将技术缺陷转嫁给用户注意力的做法,与自动驾驶"解放人类"的核心价值主张存在根本冲突。
更深层的问题在于数据闭环。每一起险情都是训练样本,但特斯拉的"影子模式"能否有效捕捉并学习这些边缘案例?铁路道口的极端稀缺性(日常驾驶中占比极低)可能导致算法在此类场景上持续欠拟合。
Brown的幸存为行业提供了一个珍贵样本:人类干预的临界点在哪里?从"意识到移动"到"护栏就在眼前",反应时间可能不足两秒。这要求系统要么完全杜绝此类错误,要么提供更早的预警——而非依赖人类在最后一刻拯救自己。
数据收束
近十年,两个Joshua Brown,一死一生。2016年的事故推动NHTSA启动首份自动驾驶调查指南,2024年的险情则发生在FSD用户量可能突破百万的扩张期。
Brown的承诺——"脚悬刹车、道口关FSD"——是个体层面的理性适应,却是产品层面的失败信号。当用户被迫为系统设计缺陷建立补偿机制,自动驾驶的"自动"二字便已名存实亡。
铁路道口不会消失,人类走神无法根除。真正的问题在于:FSD的决策边界,是否比2016年更清晰?从这起事件看,答案令人担忧。
热门跟贴