去年美国公路上,搭载自动辅助驾驶系统的车辆发生了400余起碰撞事故,其中数起致命。这数字来自美国国家公路交通安全管理局的统计,不是阴谋论。

但车企的发布会PPT里,你听不到这些。他们讲的是"解放双手""通勤变影院""零事故愿景"。产品话术和工程现实之间的裂缝,正在公共道路上以每小时110公里的速度扩大。

beta版软件上了高速,等于拿乘客当调试日志

beta版软件上了高速,等于拿乘客当调试日志

科技行业有个心照不宣的规则:软件发布时带几个bug没关系,用户反馈会帮我们迭代。这个逻辑在浏览器里成立——页面崩了,刷新就好。

把同一套逻辑搬到两吨重的金属块上,性质就变了。加州机动车管理局的脱离接管报告显示,自动驾驶车辆仍需频繁人工干预以避免危险状况。"脱离接管"(disengagement)指系统搞不定时人类被迫接手,2023年某头部公司的测试车平均每千英里就要人类救场数次。

这相当于把Windows 98的蓝屏体验,移植到了刹车踏板上。

边缘案例是自动驾驶的阿喀琉斯之踵

工程师最爱说的词是"99%场景已覆盖"。问题在于,剩下1%的"边缘案例"(edge case)恰恰是事故高发区:暴雨中的临时改道、施工路段的锥桶迷宫、突然冲出的鹿、逆光下失效的摄像头。

人类司机靠直觉和经验处理这些。AI靠训练数据——而训练数据永远追不上现实的荒诞程度。某次致命事故中,系统把侧翻的白色货车识别成了天空。

这种错误在实验室里叫"corner case",在高速公路上叫"来不及反应"。

"公测"两个字,写在别人的保险单上

"公测"两个字,写在别人的保险单上

车企的措辞很精妙。他们说"辅助驾驶",法律上却把责任推给手握方向盘的人;他们说"持续学习",实际上是把未经验证的算法批量部署到消费者车上。

一位自动驾驶工程师曾在内部论坛写道:「我们每推送一次OTA更新,都是在用真实交通参与者做压力测试。」这句话后来被删了。

创新需要试错,但试错的成本分配从未被讨论。科技公司收获数据,车主承担风险,路人成为不可控变量——这套分工是谁拍板的?

当某品牌的"完全自动驾驶"(Full Self-Driving)订阅数突破百万,当更多城市开放Robotaxi运营,一个问题变得难以回避:我们是否已经默认,公共道路可以成为未经充分验证技术的试验场?