“领先5倍”之外,小鹏VLA真正让我在意的是什么
何小鹏说第二代VLA比行业第一梯队领先接近5倍,这话乍一听挺像“王婆卖瓜”。
但看完官方发布的实测视频和推送计划,我觉得这次值得认真聊聊——不是聊倍数,是聊“这玩意儿到底怎么干活”的。
先说那个土路实测。视频里车在乡村坑洼路上自己走,遇到坑会主动绕开,挑相对平整的路面通过。
这跟以前那种“画线跟着走”的逻辑完全不一样——它不是识别车道线然后居中,而是识别“哪里能走”“哪里好走”,然后自己选路径。
说白了,以前是“听话的孩子”,现在是“有主见的老司机”。
技术上怎么实现的?第二代VLA的核心变化是“视觉直驱动作”。之前那套逻辑是“看见→翻译成语言→理解语言→做动作”,中间有个语言转译的环节,信息有损耗,反应也慢。
这次直接把语言那层拆了,视觉信号进来,模型直接输出角速度、加速度这些控制量。
用何小鹏的话说,这是“拆掉语言瓶颈”,让车的反应更接近人的本能。
数据上也挺能打:复杂小路平均接管里程提升13倍,夜间深色物体识别率提升72%,决策速度从几百毫秒压到80毫秒。
80毫秒是什么概念?人眨个眼都要100-150毫秒。这已经比人反应快了。
硬件层面,小鹏走的是“轻传感器、重模型”的路子。
12颗摄像头,没主激光雷达,算力2250TOPS来自三颗图灵芯片。跟行业主流的多传感器融合路线比,它更接近特斯拉的“视觉优先”。
但区别在于,小鹏把VLA模型做成了“端到端”——输入视觉信号,输出控制指令,中间没有规则代码,全让模型自己学。
我关注到一个细节:大众将成为第二代VLA的首发客户。这很有意思。
大众这种传统巨头选小鹏的技术上车,说明这套东西已经过了工程化验证,不是实验室demo。
推送节奏也定了:3月下旬开始向P7、G7、X9的Ultra版全量推送,4月覆盖G6、G9、P7+。换句话说,下个月你就能在路上见到真车跑这套系统。
最后说点实在的。“领先5倍”这个数字,普通人很难验证。
但如果你看过那个土路视频,会发现一个更本质的变化:以前智驾是在“驯服路”,现在是在“适应路”。那种“人开车”的松弛感,才是真正的代际差。
热门跟贴