你坐在驾驶座上,前方红灯闪烁,闸杆缓缓落下,远处传来火车汽笛。你刚放松肩膀准备等上一分钟——车突然自己冲了出去。

这不是科幻片的设定。这是得州车主Joshua Brown的真实经历,也是特斯拉"完全自动驾驶"(FSD)系统又一次将人类置于生死抉择的极端场景。

打开网易新闻 查看精彩图片

当系统选择"前进"而非"停下"

Brown的履历让这次事件更具张力。他自称有超过4万英里的FSD使用经验,还有赛车背景。按他的说法,这是FSD第一次"让我失望"。

事发时,他在一个活跃的铁路道口停稳:闸杆已降、警示灯闪烁、火车尚在远处。系统本应保持静止,却在无预警情况下突然加速。

「没有任何警告……我的特斯拉突然自己向前加速,」Brown向Storyful描述,「我完全惊呆了。反应时间超过一秒——比我愿意承认的更长。」

这一秒的延迟,把人类驾驶员推入两难。Brown没有刹车,而是选择踩死油门——赛车界的老话:"拿不准时,给油冲过去。"

车辆撞穿闸杆,碎片击中驾驶侧车窗,仪表台上的物品被震落。火车正呼啸逼近。

「混乱中我瞥向右方,看到火车正冲向我们——大灯刺眼,汽笛轰鸣。距离近得可怕,」他说,「不知怎的,车冲到了铁轨另一侧。直到那时我才猛踩刹车。」

车停稳后,触摸屏弹出提示:"自动驾驶已退出,发生了什么?"

这不是孤例:铁路道口已成FSD的系统性盲区

Electrek跟踪这类事件已超一年。2025年3月,加州West Covina一辆Model 3在FSD模式下以23英里时速径直撞穿铁路道口闸杆,车主配文"特斯拉FSD今天差点要了我的命"。

NBC News记录了40多起社交媒体曝光的FSD铁路道口故障。2025年,宾州东部一辆特斯拉在FSD控制下驶上铁轨,被火车撞击。

这些案例催生了参议员Ed Markey和Richard Blumenthal致函国家公路交通安全管理局(NHTSA),要求正式调查FSD在铁路道口的行为。

NHTSA已有针对FSD的公开调查,此前将至少58起事件、14起碰撞、23人受伤与该系统关联。这一数字现已增至约80起记录在案的违规,包括驶入对向车道、闯红灯等。

铁路道口的特殊性在于:它同时考验系统的多维度感知——静态障碍物(闸杆)、动态信号(闪烁红灯)、时间压力(逼近的火车)、以及空间约束(狭窄轨道区域)。

FSD的决策逻辑在此暴露短板。系统似乎将"保持行驶"置于"识别危险并停止"之上,这与人类驾驶员在类似场景下的直觉反应形成错位。

技术迭代的时机:v14.3的"20%更快反应"够吗?

Brown遭遇事故的次日,特斯拉开始推送FSD v14.3。更新说明提到两项关键改进:基于MLIR(多级中间表示)的新编译器与运行时,号称"反应速度提升20%";以及对"罕见异常物体侵入、悬挂或倾斜进入车辆路径"的处理优化。

时间线的巧合引人注意。是事故推动了紧急修复,还是更新本就在计划之中?特斯拉未予置评。

但"更快反应"能否解决根本问题存疑。Brown的案例中,系统并非反应慢——而是做出了完全错误的方向选择。从静止加速冲向前方障碍,这与反应时间无关,是决策层的逻辑缺陷。

MLIR编译器优化的是推理延迟,即传感器数据到控制指令的管道效率。但铁路道口的挑战在于语义理解:系统需要同时解析"闸杆=禁止通行""火车=致命威胁""静止等待=正确策略"的复合规则。

当前的端到端神经网络架构,依赖海量数据训练出的模式匹配。铁路道口属于低频场景,训练数据不足可能导致系统对"等待"这一行为的优先级估计偏低。

v14.3的"罕见物体"优化描述也值得玩味。"extending, hanging, or leaning into the vehicle path"——闸杆恰好属于"extending"(延伸进入路径)的物体。但更新是否专门针对铁路道口,说明文档未明确。

人机共驾的灰色地带:谁拥有最终决策权?

Brown的应对方式揭示了一个被忽视的命题:当系统犯错时,人类如何接管?

他的赛车背景在此成为双刃剑。一方面,肌肉记忆让他在极端压力下做出快速选择;另一方面,"给油冲过去"的赛道逻辑,在公共道路上面临伦理与法律的双重审视。

如果Brown选择刹车而非加速,结果会如何?闸杆已被撞断,车辆可能卡在铁轨中央。火车的制动距离以公里计,一旦进入可视范围,碰撞几乎不可避免。

这是一个没有正确选项的困境。系统把人类驾驶员抛入"两害相权"的绝境,而无论选择哪条路,责任归属都模糊不清。

特斯拉的用户协议要求驾驶员全程保持注意力,双手随时准备接管。但"接管"的具体含义从未被精确定义:是纠正方向?是紧急制动?还是在系统正向危险加速时,反向操作油门

Brown的经历表明,接管不仅是技术动作,更是情境判断。当系统以全油门冲向火车时,人类驾驶员需要在零点几秒内完成:识别系统错误→评估环境风险→选择对抗策略→执行物理操作。

这远超"监督"的范畴,接近特技驾驶的认知负荷。

监管与商业的张力:安全调查的滞后性

NHTSA的调查节奏与软件迭代速度存在结构性错配。传统汽车召回以硬件缺陷为主,周期以月计;而FSD的更新频率以周计,调查启动时,涉事版本可能已被淘汰。

Markey和Blumenthal的呼吁指向一个更深层问题:铁路道口作为标准化基础设施,本应是自动驾驶的"简单场景"——规则明确、信号清晰、危险可预测。如果连这类场景都反复失效,更复杂的开放道路如何应对?

特斯拉的"完全自动驾驶"命名策略,在此承受额外审视。营销语言暗示的能力边界,与用户实际体验的安全边际,之间存在可被感知但难以量化的落差。

这种落差在Brown的案例中具象化:4万英里的信任积累,在一次铁路道口事件中濒临崩塌。"第一次让我失望"的表述,暗示了长期依赖后的预期违背。

从商业逻辑看,FSD的订阅模式(每月199美元)依赖用户持续的信心投入。单次极端事件的传播效应,可能抵消大量正面体验的累积。

行业镜像:端到端架构的普遍困境

特斯拉并非唯一采用端到端神经网络路线的玩家。Waymo、小鹏、华为等厂商均在推进类似架构,将感知、预测、规划整合为单一模型。

这种架构的优势在于泛化能力:系统能从数据中"涌现"出未显式编程的行为。代价是可解释性丧失——工程师难以定位特定失败模式的具体成因。

铁路道口的反复失误,可能是端到端架构的结构性症状。系统没有"铁路道口=必须停车"的硬编码规则,而是从训练数据中学习相关性。如果数据中"道口停车"的场景占比不足,或与其他目标(如保持行驶流畅性)冲突,系统可能学到次优策略。

v14.3的"罕见物体"优化,可视为在端到端框架内插入显式规则层的尝试。但这种修修补补能否根治问题,抑或只是将失败模式转移到其他场景,需要更多数据验证。

用户行为的隐性塑造:4万英里如何改变驾驶习惯

Brown的4万英里FSD使用史,是理解事件背景的关键变量。长期依赖高级辅助驾驶,会重塑人类驾驶员的认知模式:注意力分配、风险感知、甚至肌肉记忆都会发生适应性调整。

这种调整在正常情况下提升效率,却在异常场景下成为负担。当系统行为与预期一致时,人类监督者逐渐"去激活";当系统突然背叛预期时,重新激活的认知延迟被放大。

Brown自述的"超过一秒反应时间",在正常驾驶中已属迟缓,在生死关头更是奢侈。但这一秒并非单纯的注意力涣散,而是"系统不可能错"的信念崩溃所需的时间。

赛车背景在此呈现复杂面向。专业训练赋予他极端情境下的操作能力,却也植入了特定的反应模式。"给油冲过去"在赛道上是对失控的修正,在铁路道口却是对系统错误的应激补偿。

如果接管培训纳入更多"系统反向加速"的模拟场景,人类驾驶员能否发展出更普适的应对策略?目前没有任何厂商提供这类训练。

事件余波:当视频成为证据与叙事战场

Brown将视频提交给Storyful,后者作为新闻素材分发机构,将原始素材转化为可传播的内容产品。这一选择本身即是叙事行为:车主选择公开而非仅向特斯拉或监管机构报告。

在社交媒体时代,个体用户成为安全数据的重要来源。NBC News的40多起案例,大多来自TikTok、YouTube等平台的上传。这种分布式监控补充了官方调查的滞后,却也带来选择性偏差——成功案例很少被上传,失败案例获得不成比例的曝光。

特斯拉面临的挑战在于:如何在承认具体失败的同时,维护对系统整体能力的信心?v14.3的紧急推送,可视为技术层面的回应;但沟通层面的策略,马斯克一贯的"快速迭代"叙事是否足够,尚待观察。

铁路道口事件的累积,可能推动监管框架的实质性调整。NHTSA的调查若升级为强制召回或功能限制,将影响整个行业的技术路线选择。

更深远的影响在于公众认知。自动驾驶的接受度并非线性积累,而是可能被关键事件的传播所逆转。Brown的"第一次让我失望",若在其他4万英里用户中引发共鸣,将构成比任何技术参数都更具冲击力的市场信号。

当系统把你推向火车,而你只能选择踩死油门冲过去——这究竟是辅助驾驶的失败,还是人机协作的必然代价?如果下一次,赛车本能也无法带你脱险呢?