你敢不敢把方向盘后面那个位置,彻底让给一块芯片?
这个问题听起来带点科幻色彩,可现实中,已经有车主身体力行地去“实践”了。最近网上有一段视频挺火,某品牌新能源车开着辅助驾驶,短短20秒就把车主“护送”到了科目一考场。
这不是什么浪漫的毕业旅行,而是车辆在匝道过弯时根本没减速,直愣愣地冲着护栏撞了上去。
而2026年4月工信部正在为《智能网联汽车 自动驾驶系统安全要求》公开征求意见,监管的大棒挥起来了,这话说明市面上那些“智驾乱象”已经不能不管了。
其中如今很多带“L2+”辅助驾驶功能的车,骨子里还是早些年的那套底子。感知模块看见前面有个东西,决策模块就去数据库里翻,匹配上了就按预设指令执行,匹配不上就不妙。
毕竟以前特斯拉就闹过大笑话,他们的智能系统把路边树上挂的红丝带识别成了雪糕筒,一脚急刹踩下去,后车差点追尾。一条普普通通的红丝带,就能让几吨重的钢铁巨兽吓出一身“冷汗”。
而规则匹配的致命伤在于,工程师能想到的规则再多,也无法囊括这个世界花样百出的意外。
就像杭州的潮汐车道,早高峰由西向东,晚高峰由东向西,中午可能双向都行。而有的公交专用道非高峰期人们能走,有的打死都不能进......
这些连本地司机都得心里默念三遍才敢踩油门的规矩,程序员真的能一行行代码敲进车里?这就是为什么现在各大车企都在吹“端到端”,这个词听着玄,翻译过来就是别写规则了,让AI自己看视频学。
而端到端模型就是把海量的人类驾驶视频“喂”给系统,让它自己悟出开车的感觉,从摄像头画面直接映射到方向盘和电门,跳过了那些教条。
但“端到端”这个学霸,怎么一到考试就变“黑盒盲流”?抛弃规则、模仿人类,听起来似乎挺像回事。
就像特斯拉FSD V12版本用神经网络直接替换掉三十多万行C++代码后,变道真的开始变得像个开车老手。
可问题是,这个“老手”没法跟你解释他为什么这么开。所以如果是传统模块化架构出了事儿,工程师还能查日志,精准定位是“感知模块把阴影当成了障碍物”还是“决策模块算错了刹车距离”。
端到端呢?你只能看见它输入了一张图,输出了一脚刹车,中间经过了上亿个参数的黑箱运算。至于为什么在那个瞬间车突然晃了一下?没人能确切告诉你。
这种不可解释性,是挂在智驾脖子上最沉的一块石头。更让人哭笑不得的是“干净油罐车惨案”,网上流传过一个梗:一辆纯白色油罐车跑在高速上,被某智驾系统识别为“白色小车迎面驶来”。
而原因则是因为那罐体擦得太亮,像一面镜子,把蓝天白云和自己车道的路面倒映出来,在系统眼里就变成了会移动的障碍物。
这就回到了那个最原始的问题,人脑有特有的模糊理解能力,端到端想学这个,目前的水平还远远不够。
而且技术吹得再天花乱坠,有个现象藏不住,不管哪家的无人出租车,后头都有一群坐在空调房里盯着大屏幕的“云舱安全员”。
2025年底的招聘信息显示,这类岗位要求C1驾照满3年,无重大违章,每天的工作就是守着好几台车的实时画面,一有不对劲就远程接手。
这像极了当年驾校教练的位置,只不过教练手底下有副刹车,而安全员坐云端靠无线信号接管。
本质上还是“人机共驾”,只不过把物理上的牵线换成了看不见的电磁波。这正暴露了许多智驾系统其实离不开那根“拐杖”,遇到意料之外的东西,AI可能会宕机,这时候必须由人来兜底。
而2026年4月24日,澎湃新闻报的那起事故也是同款态度,G78汕昆高速宜州西收费站匝道,一辆开启辅助驾驶的小客车没识别出弯道,直挺挺撞上护栏,车身凹陷、两侧轮胎全爆。
对此交警定责很干脆,车主全责。所以看,法律上的逻辑从来没变过,不管车企吹得多神,出了事,手握着方向盘的还是第一责任人。
但说归说,骂归骂,人类追求舒适的本能不会变。从古代马车上挥鞭子的车夫,到汽车时代考驾照的你我,再到智驾时代试图上位的芯片,都在追求怎么才能让我们少操点心。
毕竟从1925年美国人开上纽约街头的遥控车,到2026年我们还在争论该不该让车自己拐弯,一百年间技术形态变了好几茬,但那个“不开车”的初心始终没变。
不得不说的事,智能驾驶现在的处境很像手机行业智能机爆发前夜的2006年。人人都知道这是未来,各家都拿出了形态各异但都有点蹩脚的方案。
但在一个优秀方案到来之前,“敢不敢放手”这个问题只能有一个答案,那就是绝对不能。
至少2026年的这个春天,每一起发生在匝道口、隧道前、马路边的事故都在反复提醒我们,现在的所谓“智驾”,更像是请了一位刚拿驾照不久、天资不错但偶尔大脑宕机的陪练。
你觉得它开得还行时尽可以松口气,但你的手和眼最好还在随时准备接管的状态。
热门跟贴