你刚坐进副驾,朋友发来一条微信:"帮我开下座椅按摩,放个欢迎语,再把车载微信切隐私模式。"你还没动手,车已经自己搞定了。这不是科幻片,是腾讯最新演示的座舱智能体——用微信对话框远程控车。

但问题来了:当互联网公司的智能体开始接管你的座椅、空调甚至支付,车企愿意把多少权限交出去?

打开网易新闻 查看精彩图片

一、从"听懂话"到"干完活",座舱智能体终于过了试用期

2011年Siri出道时,语音助手只会设闹钟、发短信。单向指令玩了十几年,直到2024年,能跨应用、像真人一样处理复杂任务的智能体才在移动端和PC端成熟,并迅速往车里钻。

腾讯这次发布的"出行全场景智能体开放平台",集成了元宝搜索、微信支付、空间智能等能力,打包成随行点单、随行向导、随行逛逛等七大场景智能体。

随行点单是个典型例子。你在开车,系统根据实时行程和个人偏好筛选门店,推算出餐时间,完成选品、下单、取餐全流程。不是给你推荐餐厅,是把饭直接安排到手里。

更狠的是随行互连智能体。它深度打通了腾讯内部代号"龙虾"的能力,让用户通过微信对话框直接下指令控车。开头那个场景——"乘客上车后打开座椅按摩,播放欢迎语,并将车载微信设置为隐私模式"——CarBot会自动拆解任务,判断副驾座椅被占用,然后执行。

手机与车机的信息流转,被压缩成一条微信消息。

腾讯智慧出行副总裁钟学丹的判断很直接:智能体上车能不能规模化,取决于车企有没有系统化的平台,以及用户体验有没有真正改善。"不是照搬某些应用,把它变成对话就叫智能体了,智能体是结合场景的需求去重塑体验。"

二、腾讯的底气:工程能力+生态连接,但有个"不碰"的禁区

被问到和荣威、大众、火山引擎等产品的区别,钟学丹拆成两个维度。

技术底座上,车载语音对话已经很多年了。大模型上车第一阶段是优化对话体验,但要变成"可知性"——也就是稳定执行——需要模型能力和工程化能力双进化。最近半年,Harness Engineering工程化能力的进步,让稳定输出成为可能。"不仅依赖于模型,还依赖于工程化的能力。"

生态连接上,腾讯的牌面是微信支付、小程序、社交关系链。想执行时发现"什么都用不了",智能体就是摆设。

腾讯智慧出行副总裁李博补了一刀:过去一年大模型上车多停留在概念层面,没解决实际场景问题。"腾讯认为大模型本质上难以直接解决问题,必须依赖Agent实现场景化落地。"

他们的精力集中在Agent与微信小程序的连接上。李博的原话很犀利:"单纯的大模型已无意义,若不能结合车辆传感器信息、车辆功能及相关场景实现Agent落地,其效果与手机端应用并无区别。"

但腾讯给自己划了红线。

被问到"Agent即整车操作系统"的观点时,李博的回应很干脆:安全是底线,整车底层系统级权限交给互联网公司或Agent仍需时日,现阶段应由车企或车规级芯片厂商主导。

"无论是Agent OS还是其他概念,最终都必须回到应用场景,关注能为车主和乘客解决哪些实际问题。"腾讯的定位是"有所为有所不为"——不追求宏大叙事,发挥用户交互、应用开发、生态链接的长处,帮用户解决具体场景问题。

翻译一下:座椅按摩可以,刹车转向免谈。

三、端侧算力狂飙,但复杂场景还得喊云端救场

智能体上车对芯片有什么要求?李博的判断是端侧算力与模型能力同步提升。

目前端侧正从部署2B、3B参数模型向7B、14B演进。增强端侧算力有两个好处:及时响应,以及为车企节省Token消耗成本。

但腾讯不认为端侧能包打天下。"更复杂的场景仍需依赖云端大模型(如200B参数以上级)来处理,端侧目前尚不具备解决极复杂问题的能力。"

这意味着未来的座舱架构很可能是分层协作:端侧处理即时、安全敏感的基础任务,云端大模型兜底复杂规划和长上下文理解。

钟学丹提到一个细节:当前的Agent仍受限于上下文长度。考虑到长时或长上下文应用——这句话没说完,但潜台词很清楚,技术还在进化中。

四、数据是燃料,但冷启动怎么破?

腾讯强调依赖Agent而非单纯大模型,核心在于执行能力。李博解释:当前AI无法完全解决问题的原因在于高度依赖数据,系统必须具备记忆和上下文处理能力,才能理解用户喜好并精准执行,"否则在冷启动阶段很难符合用户预期"。

数据是AI的基础,首先要有准确的数据,能够把握用户的喜好,然后才有对应的生态,能够执行它的喜好。

这里有个鸡生蛋的问题:没有用户数据,智能体做不好;智能体做不好,用户不愿意用,更没数据。

腾讯的解法是先做样本场景。钟学丹说:"为什么最开始我们也会做一些智能体覆盖这个场景,需要去开发出更多的样本让大家看到这个东西怎么去发展,相信这个也会引导智能体更好地去推广。"

七大核心场景智能体,某种程度上是腾讯投下的诱饵——让用户先用起来,数据再慢慢养。

五、微信生态能打通多少?腾讯说"不损害伙伴商业价值"

停车自动缴费已经演示过了,但商场消费优惠与微信支付缴费之间的生态连通,仍是行业痛点。车内的智能体能不能彻底打通微信生态?

钟学丹的回应很务实:停车等服务背后的商业逻辑、服务链路、服务复杂性、不同停车场的实现差异都非常大。腾讯发布开放平台,希望生态合作伙伴以更轻量级的方式接入,实现更闭环的服务体验。

他反复强调"不损害伙伴的商业价值",甚至要通过流量支持为合作伙伴创造更多商业收益和空间。

这话的潜台词是:微信不是想吞掉所有环节,而是想当连接器。但连接器能不能让各方都满意,取决于利益分配的具体设计——而原文没提细节。

六、40多家车企入局,但规模化还差什么?

腾讯已与长安、上汽、广汽等40多家车企展开AI深度合作,推动智能体技术落地。

但钟学丹对规模化落地的判断很冷静。一方面需要车企本身的系统平台形成,"如果这个平台不形成的话,那它的规模化可能就会受制或者说有一些弱化,不是完整体,可能只是一个点"。

另一方面是用户体验的实质性改善。智能体不是对话包装,而是场景重塑。

李博在安全边界上的表态更保守:行车安全是腾讯业务的底线红线。模型任务被明确切分,端侧确保及时响应和基础安全,涉及语音误操作等安全底线的反馈,系统需进行无效判定或双重校验,"这套逻辑应由端侧底线判断或物理层模型控制,而非交给复杂的Agent"。

车控领域基于TSP体系,腾讯主张由经验丰富的车企主导,互联网公司"不应过度涉足或干预",而是利用AI和Agent能力辅助车企做好安全防护。

这种分工,某种程度上是对2015年就开始布局车联网的腾讯的一种自我限制——懂车,所以知道哪里不能碰。

七、交互方式的暗线:从"你问我答"到"我不问你也能懂"

钟学丹提到一个容易被忽略的趋势:目前的演示虽包含用户主动发起,但更多功能趋向于陪伴式。

导游智能体在驾驶过程中可根据场景主动触发,向用户推荐周边有趣的地点,而无需用户发问。

这是智能体从工具向伙伴跃迁的关键标志。被动响应的语音助手,价值天花板很低;主动预判的Agent,才可能重构人车关系。

但主动触发的边界在哪里?推荐餐厅和推荐路线是一回事,推荐消费决策又是另一回事。原文没展开,但这个问题会伴随智能体进化越来越尖锐。

腾讯的七大场景智能体,目前看还是围绕"服务"而非"决策"。随行点单帮你买饭,随行向导帮你找路,随行逛逛帮你探店——都是执行层,还没碰推荐算法的深水区。

钟学丹对智能化下半场的总结是:竞争已经脱离功能堆砌的低级阶段,真正的核心在于,谁能率先将大模型、整车能力与服务生态,组织成一个可规划、可执行且持续进化的智能中枢。

这句话里,"持续进化"是最重的词。智能体不是一次性产品,是需要数据喂养、场景训练、生态扩展的长期工程。2015年入场的腾讯,等的就是这个工程化的窗口期。

但车企愿不愿意把进化钥匙交给腾讯,40多家合作里有多少是深度绑定、有多少是浅层试水,原文没给数字。智能体平台的规模化,可能要比技术成熟来得更慢。

当微信对话框变成车机遥控器,你更担心它不够智能,还是太智能?