车载AI喊了两年"大模型上车",真正量产交付的却屈指可数。4月17日极氪8X上市,一个关键数字浮出水面:阶跃Step 3.5 Flash的单请求推理速度达到350 TPS——这意味着什么?你的语音指令从说出口到系统开始执行,延迟被压缩到了人类几乎无感知的区间。

为什么是阶跃先跑通?

打开网易新闻 查看精彩图片

过去一年,国内车企发布会上的AI demo不少,但实验室到量产之间隔着三道坎:模型响应速度、多模态融合稳定性、与整车控制系统的原生对接。阶跃、吉利、千里科技三方联合研发的超级Eva,选择了一条更重的路径——不做简单的语音助手叠加,而是直接打通智能座舱、辅助驾驶、数字生态,与底盘、动力等底层控制体系原生融合。

这种架构设计,与特斯拉Grok的对话式操控理念高度相似。区别在于,特斯拉的FSD+Grok组合尚未在中国市场落地,而极氪8X成为首个将类似体验交付到消费者手中的车型。

技术层面的关键突破来自三项核心模型。Step 3.5 Flash专为Agent场景设计,能解析"带我去接孩子放学,顺便找家麦当劳,5点前到学校"这类模糊指令,自动拆解为路线规划、途经点插入、辅助驾驶激活等步骤。阶跃语音大模型跳过了传统的ASR-LLM-TTS三段式架构,用端到端设计降低延迟并增强情感表达。视觉理解大模型则让系统能同时感知车内外环境——识别车位和判断路况不再是两个割裂的功能。

350TPS背后的工程取舍

大模型上车最大的悖论是:参数规模与推理速度此消彼长。Step 3.5 Flash能在保持能力的同时跑到350TPS,说明阶跃在模型压缩和端侧部署上做了针对性优化。这对用户体验是决定性的——没人愿意在开车时等AI"思考"两秒钟。

更值得注意的信号是时间节点。今年3月,Step 3.5 Flash刚在开源社区登顶OpenRouter周调用量全球榜首;一个月后,同一套模型体系就完成从开源验证到终端商用的跨越。这种节奏暗示了阶跃的技术路线:用开源社区的真实调用压力测试模型稳定性,再向工业场景复制。

行业人士将2026年定义为通用大模型"入端"的关键年份。超级Eva的量产,验证的不仅是单一车型的竞争力,而是一套可复制的部署路径——高实时性、多模态融合、与硬件深度耦合。

从"车内伙伴"到"智能枢纽"的跳跃

超级Eva的远期规划透露了更大的野心。按官方披露,能力升级将沿着两条线展开:一是接入吉利自有的售后、租车等生态;二是打通外部生活服务,订餐厅、点外卖、机票门票预订都纳入自然对话的指令范围。

这本质上是在重新定义车载AI的边界——从被动响应工具,转向主动理解场景需求的智能枢纽。如果执行顺利,用户将告别多个App来回切换的繁琐流程,行车场景中的服务入口被大幅收敛。

但挑战同样明显:服务生态的整合深度、跨平台账号体系的打通、支付安全的闭环设计,每一步都需要重投入。极氪8X的首批用户反馈,将成为验证这套模式可行性的关键样本。

对科技从业者而言,超级Eva的量产提供了一个观察窗口:当大模型从云端走向端侧,技术竞争的核心变量正在从参数规模转向工程化能力——谁能在严格的延迟、功耗、安全约束下交付稳定体验,谁就能在下一阶段的智能硬件渗透中占据先机。阶跃这一步,测出的是中国大模型团队在汽车这一复杂工业场景中的真实水位。