2026年1月10日下午4点,青岛的周女士驾驶着她的理想L6 Pro行驶在香港中路上。

刚接了一个蓝牙电话后,她打开了车辆的NOA导航辅助驾驶系统。车辆正对夕阳行驶,在红绿灯路口起步直行7秒后,突然向后偏转,与右侧车道的黑色轿车发生碰撞。

事故后的道路认定书显示,周女士因违规变道负全责。

理想工作人员的回应:“午后低角度阳光直射,传感器有局限性。”

翻译一下:太阳太大了,晃着智驾的“眼睛”了。

打开网易新闻 查看精彩图片

智驾失控,阳光背锅?

理想汽车技术人员分析:冬季午后低角度阳光直射,辅助驾驶传感器在极端光线条件下识别存在局限性。这套说辞被严谨地写进了《用户手册》。

同样的情况也在特斯拉身上发生过,不过那是在美国。2025年2月,内华达州里诺市,一辆特斯拉Cybertruck在FSD(全自动驾驶)模式下,同样在光线充足的白天,系统未能识别车道即将终止,也未尝试变道或减速,径直撞上路灯。车主在社交平台发布的现场照片显示,右前轮悬空贴在灯柱上,车身严重变形。

打开网易新闻 查看精彩图片

2024年10月,美国国家公路交通安全管理局(NHTSA)对240万辆特斯拉展开调查,原因是车辆在“能见度降低的区域”FSD系统失效导致碰撞。

光线问题、突然变道、传感器失效这三个关键词,勾勒出智驾系统在面对自然光环境时的集体脆弱。

全行业的黑箱默契

魔幻的还有数据的缺失。

事故发生后48小时内,周女士联系理想官方希望提取后台智驾数据,找第三方鉴定。1月14日售后说“最晚明天”;1月16日改口:“辅助驾驶数据已自然灭失”。

理想给出的解释是:智驾数据存储在本地,需要在出现问题后“两三分钟内主动上传”,否则会被覆盖。

这种“数据易逝性”似乎成了行业“默契”。 2025年3月29日,小米SU7在安徽高速施工路段以116km/h时速碰撞隔离带,致三名女生身亡。事故发生后,舆论聚焦的关键点之一正是“数据黑箱”。

一位业内人士透露,目前主流车企的智驾数据策略普遍是“本地化存储+触发式上传”,“如果系统不认为这是『事故』,或者上传通道拥堵,数据就可能被覆盖。”

国标GB 44495-2024《汽车整车信息安全技术要求》要求自动驾驶数据记录系统至少保存碰撞及碰撞风险事件数据,但该标准对“智驾数据”的定义边界模糊。据此,理想的回应是:“辅助驾驶数据目前没有现行的国标要求。”

翻译一下:NOA不是自动驾驶,不适用最严格的数据保存标准。

行业通病还是技术路线之殇?

青岛周女士遇到的情况并非孤例。

在质量投诉等网络平台上,类似“智驾状态突然变道/转向导致事故”的投诉并非个案,且呈现出诡异的跨品牌共性:

2025年3月,一位理想L6 Max车主投诉:市区NOA状态下,误判道路情况,猛地向左打了两圈方向,导致车车辆失控撞上绿化带。

打开网易新闻 查看精彩图片

2022年8月,小鹏P7在光线良好的高速路况下,以80km/h时速径直撞向静止车辆,毫米波雷达、前向摄像头“三重冗余先后失效”,车主不幸身亡。讽刺的是,就在事故前两天,小鹏刚刚因为“车主眼睛小被DMS误判注意力不集中”而上了热搜,向公众宣传其监控系统的“严谨”。

2025年7月,新疆,理想AD Max在面对突然窜出的羊群时,“丝毫没有预警,也没有减速”,径直撞去。

打开网易新闻 查看精彩图片

2025年初,美国德州,一辆特斯拉Model 3在Autopilot模式下意外偏离车道,横穿高速公路多条车道后撞上摩托车手,导致骑手及其乘客被送往医院。

这些案例勾勒出一条清晰的技术边界:当前智驾在降级逻辑、静态障碍物识别、突发转向控制上存在系统性短板。 特别是“NOA降级LCC后车辆不会自己变道”的设定,实际上制造了一个危险的“能力断层”。

更深层的问题是技术路线的争议。特斯拉坚持“纯视觉”方案,完全依赖摄像头;理想、小鹏、华为则采用激光雷达+摄像头的多传感器融合。但在阳光直射或能见度低的场景下,两种路线都会栽跟头。特斯拉的视觉算法被光线干扰,理想的激光雷达同样被“致盲”。

说好的全场景呢?

“极端光线”、“非标准路面”、“驾驶员未及时接管”……这三板斧几乎成了智驾事故的万能挡箭牌。

但一个基本的悖论在于:如果智驾只能在“标准路况”下使用,那它的价值何在?车企在宣传时大谈“端到端”、“全场景”、“多少公里零接管”,在事故后却将场景切割成“极端”与“常规”,这种“营销时全场景,定责时全局限”的双标,正在消耗消费者对智驾的信任。

2025年7月15日,在2025新能源智能汽车新质发展论坛上,中国电动汽车百人会副理事长兼秘书长张永伟表示,中国L2级辅助驾驶的渗透率已超过50%,这意味着中国市场上,每卖出两辆新车,就有至少一辆搭载了L2级辅助驾驶技术。

打开网易新闻 查看精彩图片

在车企长期模糊宣传“L2.9999”、“高阶智驾”的情况下,很大一部分消费者误认为“开启辅助驾驶后可玩手机”。

更值得警惕的是数据黑箱。在缺乏国标强制要求、车企又掌握数据定义权和存储权的现状下,消费者本质上是在“信任驾驶”。你既不知道AI当时看到了什么,也不知道它为什么那样决策,事后更无法复盘。

一位网友的评论颇为扎心:“以前开油车,出事故是我的问题;现在开智驾车,出事故还是我的问题,那我多花的这3万块智驾包,是买了个爹?”

结语:

放眼整个行业,从特斯拉的纯视觉到华为的多传感器融合,从小鹏的NGP到理想的NOA,没有一家能拍着胸脯保证“阳光不会致盲”。 当传感器遇上夕阳就失灵,当关键数据能“自然灭失”,当每一次系统误判都被归因于“驾驶员未接管”,智能驾驶究竟是在辅助人,还是在训练人如何辅助机器?

青岛的这次碰撞没有造成人员伤亡,算是不幸中的万幸。但它留给行业的拷问是沉重的:当智驾成为标配,安全不能是选配!

随着法律法规的逐步完善,未来智能汽车事故调查将更加有据可依。但在当前过渡期,消费者仍需明确辅助驾驶的局限性,不盲目信赖宣传话术。同时,理性看待辅助驾驶的功能边界,即便开启智驾功能,也需全程保持注意力,做好随时接管车辆的准备,避免过度依赖系统引发安全风险。

来源:星河商业观察