打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

超级Eva的量产,第一次让汽车具备「超级智能体」形态。

作者丨王瑞昊

编辑丨李雨晨

自2025年7月特斯拉在座舱接入Grok并与FSD形成协同后,AI上车一夜成为风口。但热闹背后,当前进展更多停留在“语音交互升级”层面,人车交互范式未有本质改变。真正具备意图理解与执行能力的“具身智能体”,依然未出现。

行业正在等待,一款真正改变现状的产品。

4月17日,极氪8X上市,29分钟大定量突破10000台,其首发搭载由阶跃、吉利、千里科技联合研发的整车智能体“超级Eva”。这是一款回应行业长期期待的产品。

与以往停留在座舱层的AI不同,超级Eva被定义为“整车智能体”,尝试打通从感知、理解到执行的整车链路,将AI从“对话入口”延伸至系统层能力。

过去一年,围绕“Grok+FSD”的讨论此起彼伏,但多数仍停留在追风口阶段。随着超级Eva实现量产,这一方向第一次有了具象化的落地样本。

01

大模型上车分水岭:

不在对话升级,而在执行任务

现在所谓“大模型上车”,本质是把类似Grok这样的通用模型接入座舱,用来提升语音交互体验。这种接入通常被称为“外挂”AI,其提升的是对话交互体验,但无法深入到规划与控制层,距离用户期待中真正意义上的整车级智能体体验相去甚远。

虽然“外挂”AI也做到了更自然的对话、更丰富的知识库、更拟人的交互体验。但问题在于,这些能力距离真正的汽车智能体标准仍有明显差距。物理AI不仅要“说得更好”,更关键的是要“做得更好”。

换句话说,“外挂”AI的本质仍停留在人控车的辅助工具阶段,而真正的整车智能体,则需要具备自主理解、决策与执行任务的能力。

正如麦肯锡在相关研究中指出,当前车载AI的主要瓶颈,并不在语音识别或对话能力,而在于“跨系统任务编排能力”的缺失。系统无法将用户的一个复杂目标,转化为多模块协同执行的动作链路。这也是为什么,大多数所谓“AI助手”,本质上仍是被动“响应命令”的工具。

而“超级Eva”意义,就在于把目前的瓶颈突破了,让大模型上车第一次迎来分水岭时刻,从此前以提升交互体验为核心的阶段,迈向AI第一次作为整车大脑的智能体阶段。

这也是为什么行业将超级Eva与Grok上车Tesla的体验相提并论,因为它们都代表着一个相同的趋势:AI正在从回答问题走向完成目标。

举一个我们开车时的刚需场景——当你对着车机说:“带我去接孩子放学,顺便找一家麦当劳,5点前我要到学校。”

在超级Eva出现前,这句话大概率无法被直接执行。因为系统无法理解其中的多重意图,用户必须手动拆解成多个指令:先导航到学校,再搜索麦当劳,再设置途经点,途中还要不断确认路线与时间。整个过程中,人仍是决策者与控制者,车只是执行工具。

但在超级Eva中,这句话会被当作一个“目标”处理,而不是一串命令。

系统会自动完成三层解析:先识别任务结构——接孩子是主任务,买麦当劳是附加任务,5点前到达是硬约束;再拆解每个任务——筛选合适门店、规划最优路线、计算时间窗口、评估绕行成本;最后调度系统能力——调用导航、辅助驾驶、泊车等多个模块形成闭环执行。

更关键的是,在执行过程中还能根据实时路况、时间变化进行动态调整。比如遇到前方堵车会提前提醒,并可以完成以达成目标为主的规划与执行。

这背后真正发生的变化是,用户不再替AI思考“怎么做”,只需要表达“要什么”,这可以称得上是一次体验范式的重构。

Gartner在其2025技术趋势中将“Agentic AI”列为关键方向之一,强调其本质是“能够自主制定计划并执行多步骤任务的系统”,不再是传统的对话式AI。

超级Eva的出现,本质上就是把这一能力,第一次落在了量产车上。

02

为什么是阶跃能最先做成这件事?

如果说大模型上车的第一阶段,是把“会说话的AI”装进车里,那么这一阶段的上限,其实已经被证明是有限的。

真正的分水岭,在于AI是否开始具备“感知世界 + 理解意图 + 执行动作”的闭环能力。极氪8X首发搭载的整车智能体超级Eva,第一次国内让车载AI具备了这种闭环能力,技术层面是“语言大脑 + 语音表达 + 视觉感知”三套能力协同的结果。

而支撑这一切的底座,是阶跃星辰的Step系列模型矩阵。

据我们了解,阶跃星辰是国内基座模型研发最全面的公司之一,其自研的Step系列基座模型矩阵覆盖了从千亿参数到万亿参数,构建了从语言、推理到多模态,从理解到生成的全面能力。Agentic 时代,模型要真正从软件层面走进物理世界,覆盖了感知-推理-执行全链条的系统能力是必备要素。

阶跃最新发布的Step 3.5 Flash,是整个超级Eva的“大脑”,其不是一个单纯的大语言模型,而是一个面向Agent场景设计的推理与规划引擎。

打开网易新闻 查看精彩图片

Step 3.5 Flash有三个关键能力。

第一是速度与稳定性。模型推理速度最高达到350TPS,在复杂任务中仍能保持低延迟响应,这意味着它可以支撑更流畅的车端实时交互。

第二是复杂任务推理能力。在OpenRouter全球调用榜中登顶,这一成绩证明了Step 3.5 Flash具备稳定处理多步逻辑链的能力,在现实Agent场景中被大量开发者所选用。

三是长上下文与记忆能力。支持256K级别上下文处理,让“连续任务”成为可能,这是车载Agent能够记住用户偏好,更“懂人”的基础

这三点能力决定了当前车载AI最关键的一个变化:AI第一次能够“理解一个目标”,而不只是“理解一句话”。得益于这一能力,例如你提出“我要去看演唱会”这一目标,超级Eva便能自动拆解为出发、路线、停车、订酒店、订饭店等多个子任务,并在执行过程中根据路况与时间动态调整。

这不再是简单的导航或推荐,而是一次完整的任务编排与执行,体现出大模型在复杂场景下的推理深度与系统级调度能力。

如果说Step 3.5 Flas这一大脑解决的是“想清楚”,那么语音模型解决的是“说清楚”。

传统车载语音的问题是交流不拟人,输出往往是功能播报式的——“已为您规划路线”“空调已开启”。而超级Eva接入阶跃的语音大模型,改变的正是这种表达方式。

该模型具备几个能力:情绪理解(识别用户语气背后的紧迫性或松弛感);语义重构(将机械指令转化为自然表达);对话连续性(支持上下文中的持续交流,而不是一次性问答);知识库(支持智能搜索,什么都能聊)。

举一个例子,你说“我累了,好想回到小时候”,它会像一个知心朋友一样陪你聊天。

换句话说,这一模型能力解决的是“人愿不愿意继续说”,而不是“说得像不像人”,后面的能力此前的车载AI助手就已具备。

如果说Step 3.5 Flash和语音模型是大脑和嘴巴,那么视觉模型就是智能体的眼睛。

这是当前大多数车载AI的短板,Grok也不例外。

超级Eva接入视觉能力,使车辆第一次具备了基础的环境理解能力,能识别车位是否被占用,还能感知环境变化并调整策略……。

值得一提的是,超级Eva的多模态协同能力,是目前类似Grok也仍未完全覆盖的方向。Grok强于语言与数字世界理解,但在物理感知与执行闭环上仍处于演进阶段。

对于汽车这一最具想象力的物理AI终端来说,超级Eva让它不再是工具,而开始成为一个可以协助人类完成任务的超级智能体。

03

原生AI时代,需要怎样的造车模式?

过去AI上车慢和体验不及预期,症结在于三方能力的互相割裂:模型公司懂AI,但不一定懂整车系统;车企懂整车,但不一定有最前沿的模型能力;中间工程落地和场景编排,常常缺少一个足够强的承接方。

这造成的结果就是:模型很强,但上不了车;上了车,但调不动整车系统;功能做出来了,但难以快速量产和稳定交付。

而超级Eva的快速量产,验证了一条新的可行路径:AI基座模型公司、汽车厂商、汽车科技公司三方联手的深度共创,最终呈现的效果最优。

打开网易新闻 查看精彩图片

这种“你中有我”的深度融合,让三方从第一天起就围绕“整车智能体”目标做联合定义和联合开发。

数据佐证了这一模式的效率,Step 3.5 Flash于2月2日发布并开源;3月16日即接入超级Eva并开启预售;4月17日随极氪8X正式上市。从模型发布到量产上车,仅用了两个多月。

而且,这并非阶跃在汽车领域的首次亮相。此前,阶跃已联合吉利、千里打造了智能座舱Agent OS,并率先在吉利银河M9上实现了端到端语音大模型的上车。此次超级Eva的量产,标志着阶跃“AI+终端”的商业化链路已完全跑通,并且进入了加速期。

因此,车上智能体要想真正做深、做快、做成量产,不能只靠车企单打独斗,也不能只靠模型公司技术输出。阶跃、吉利和千里科技的合作,可谓是为行业打造了一个商业范本。

04

超级Eva随极氪8X量产上市,不能看作是一个简单功能的加入,它最大的意义在于宣告汽车正式进入“整车智能体”时代。

很多车企都在布局大模型上车,但阶跃、吉利、千里联合研发的超级Eva,可以说是首个真正实现量产落地、性能强、真可用的“中国版Grok上车”。

以此为起点,超级Eva将不再只是车内的伙伴,更是连接出行、生活服务的智能枢纽。从理解一句话到搞定一整件事,阶跃AI+终端的商业化进程,正进入全面加速的快车道。