今年的消费电子展CES上,除了展示标志性的V8发动机、Hi4混动技术,长城汽车还发布了空间与语言智能体ASL。
拿长城汽车CTO吴会肖的话借花献佛,“ASL是以3D视角感知世界的智能体,覆盖车内外场景,如人类般直观,是懂倾听、会学习、能沟通的出行伙伴。”
几乎在同一时间,比亚迪宣布全系车型DiLink接入字节的豆包大模型,阿里巴巴旗下的斑马智行宣布,其全模态端侧大模型Auto Omni已获得国内头部车企定点,并将于2026年量产。
一系列密集的信号表明,智能汽车的战场,正从方向盘外的自动驾驶,悄然转向方向盘内的智能座舱。
而战局的核心,已不再是更大的屏幕或更炫的APP,而是一个全新的物种-座舱智能体。
开篇明义,先给出Agent智能体的定义,拉齐大家的共识。
虽然Agent有反应式、目标式、模型式、学习式等多种变体,但是,在一个普遍的定义中,Agent指的是一个能感知环境、自主决策并执行动作以达成目标的实体,这个实体可以是软件、硬件、系统的形式。
眼尖的小伙伴已经发现了,Agent定义遵循的,正是自动驾驶行业那套让人耳朵听出老茧的感知-决策-执行三段论。
其实,无论是生物智能还是LLM、Agent这类非生物智能,遵循的都是感知-决策-执行-评估(感知)-修正(决策)-执行的循环三段论。
这么看来,理想汽车早在2025年中就抢先把自家的辅助驾驶系统叫做“司机Agent”,还真的挺有道理呢。
将这套三段论的定义投射到智能座舱里,可以描画出座舱智能体的理想模样。
感知层面,Agent不仅可以听懂非结构化的自然语音指令,还能看懂手势、视线、疲劳神情,并感知车内温度、乘客位置、车外天气等信息。
决策层面,它不仅能像之前的语音助手那样,理解“打开空调”的字面命令,还能推理“我有点闷”背后的意图是“开窗通风”还是“调低温度并加大风量”。
执行层面,智能体不仅是执行一个孤立的开关动作,更要能通过车辆工程的原子化能力,调度车内的所有硬件(前备箱、后备箱、空调、大屏、座椅、冰箱、车窗、香氛、氛围灯),并串联外部服务生态(导航、音乐、餐饮预订、支付),完成一连串复杂任务。
这就是座舱智能体的完整画像和理想模样,它将座舱从功能孤岛,变为一个能主动感知、连贯思考、完整执行的有机生命体。
当然,这幅蓝图描绘的是终极目标,而非当下已全面普及的现实。毕竟,大家爱车的座舱基本上还是一副损色、死出的智障模样。
千里之行,始于足下,从理想到现实,座舱智能体的落地并非一蹴而就的。
有关座舱智能体的等级划分,一个被行业广泛引用的参考框架,是中国汽车工程学会提出的从L0(功能座舱)到L4(全面认知智能座舱)的五级阶梯。
不过,华为鸿蒙座舱展示的 L1-L5能力跃迁图 ,也提供了精准和生动的技术标尺,可以帮助我们理解当前技术突破所抵达的具体位置。
由图可见,座舱智能体的进化将至少经历三个关键阶段。
执行简单车控命令的L1指令助手、增加了多模态能力的L2任务助手位列第一阶段,交互由用户主动发起,座舱被动响应用户请求是这个阶段的核心特点。
能主动建议、不只是被动响应的L3专业助理是第二阶段,这也是当前行业技术攻坚和体验跃迁的关键分水岭。
其标志性能力补全有四点:
一是多模感知与记忆,能识人记事;
二是模糊意图理解,能听懂“让她舒服点”这种含蓄表达;
三是主动建议,能根据场景预判需求;
四是使用工具,能调用Agent完成“导航-充电-支付”等闭环任务。
从被动响应到主动建议,座舱在这个阶段开始拥有了助理的雏形。
能主动服务(而非主动建议)的L4专属管家与L5 数字超人是第三阶段,它们代表的是未来的高阶形态。
座舱可以像管家那样读懂用户的心思和情绪、精准预判需求,乃至于像数字超人那样,建立了用户的数字分身,具有记忆和情商,并无缝调用一切内外部服务。
这个阶段将实现特定场景乃至全场景的自主服务、深度情感共情与跨域生态协同,成为真正的出行伙伴。
遵循被动响应-主动建议-自主服务的三阶段划分,行业目前正站在从第一阶段向第二阶段跃迁的关口,着力打造理解复杂场景、连接数字世界、整合生态服务的L3专业助理。
站在2026年初这个节点,行业密集发布的智能体方案(如鸿蒙MoLA、长城ASL、蔚来NOMI、斑马Auto Omni)的共同目标,正是推动智能座舱从L2任务助手集体迈向 L3专业助理阶段。
遵循智能体的定义,也正是从可调用Agent工具、闭环完成任务的L3专业助理开始,业内开始把这个级别的智能座舱叫做座舱智能体。
这是头部车企和供应商的发力目标,也是汽车座舱历经电子化、数字化、智能化、AI化,长达二十年的演进史的中转站。
在多模态感知、Agent服务的加持下,智能座舱正从听清指令、执行孤立的命令,升级为能察言观色、看懂场景、懂得变通、并主动搞定一连串事情的智能体。
这种变化恰恰也能解释,为何在2025年初还被众星捧月的DeepSeek,在2025年底迅速被阿里、字节、腾讯等巨头取代。
当座舱智能竞争的维度从单一的语言对话升维至能察言观色的多模态融合感知,当胜负手取决于 Agent的主动服务能力时,仅仅擅长语言对话并缺乏应用生态的DeepSeek就不可避免地成了被抛弃的牛夫人。
毕竟,只有兼具多模态理解与复杂任务执行综合能力的阿里、字节这些玩家,才能调动数字帝国的资源,才能将自身庞大的多模态内容生态(视频、电商、社交、生活服务)与强大的模型能力结合,将理解与执行真正贯通,实现从感知需求到服务闭环的无缝体验。
当然,理想很丰满,现实很骨感,广大消费者真的体会到功能座舱变得更智能了,还得等上一段时间!
热门跟贴