作者 |本一
编辑 |德新
如果在 2026 年北京车展,主要车企的展台转过一圈,你会发现一个有意思的现象:几乎每家车企都在讲「座舱智能体」。
魏牌 V9X 的小魏同学,能识别「给我老婆打开座椅按摩」这种带身份关系的自然语言;极氪的超级 Eva,一句话能完成复杂的出行规划;智己 LS8 由千问大模型驱动的智能体助理,能“听懂意图、自主规划到一键执行”;小鹏天玑 AIOS 6.0 把 SR 感知界面、导航和智驾主界面融为一体;理想同学在用 Mind GPT 做认知大模型和智驾的双线推进。
图片来源:Tesla
国内厂商都在效仿特斯拉「Grok+FSD」的产品模式:把 AI 助手和智能驾驶融合成连贯的人机协作体验,用户说出意图后,系统就能连续完成理解、规划、驾驶、调整等等一系列动作。
但可能大家在开发的过程中都会撞上同一堵墙,发现「座舱芯片的算力不够跑大模型。」
高通 8155、8295 这一代座舱芯片,是在大模型浪潮到来之前定义的。
要流畅运行一个 13B 参数的多模态模型,它们都有点力不从心。但行业对上车大模型的参数共识,至少要到 30B 左右,才能实现真正好用的多模态交互、语义理解和主动服务。
所以,大模型上车的算力,到底从哪里来?
一、外接一块「显卡」
联想车计算在今年的北京车展上发布了 Auto AI Box,一个基于英伟达 DRIVE AGX Thor-Z 平台打造的车端 AI 算力盒子,360 TOPS@FP8算力,支持端侧运行 8B 到 32B 参数的大语言模型和多模态模型。
图片来源:联想车计算
这个产品解决的问题,恰好是「不换座舱芯片,外挂一个显卡盒子,就能让大模型上车」。
前段时间,苹果允许外接英伟达和 AMD 的显卡在本地跑大模型。Auto AI Box 做的是类似的事情。它也是一个独立的 AI 算力模块,通过标准化接口叠加到现有车型上,不需要车企改动已有的电子电气架构。这意味着:
第一,新车型可以在设计阶段就集成 AI Box,把座舱智能体的算力需求和传统座舱芯片解耦。座舱芯片管信息娱乐,AI Box 管大模型推理,各司其职。
第二,存量车型也能用(座舱算力吃紧的前代产品)。已经在产的车型如果座舱芯片算力不够跑大模型,可以通过 AI Box 做即插即用的升级。
图片来源:联想车计算
联想车计算总经理许亮在采访中给大家算了一笔经济账:「纯云端方案问得越多成本越高。端侧部署后,隐私、安全、成本都变成平台化能力,每年不需要额外付费。」
AI Box 相比纯云端大模型方案的另一个优势就是,一次性硬件投入,换来长期的端侧推理能力,不用按 Token 付费。
更有意思的是许亮对舱驾融合边界的判断。
当被问到 AI Box 能否同时承担智驾计算时,他用了一个生动的比喻:「你的龙虾绝对不可能养在智驾系统上,让龙虾来给你做制动决策。」
智驾是安全属性导向,需要 ASIL-D 级别的功能安全;座舱则是体验属性导向,变化快、需求杂。两者可以共享硬件载体以降低成本,但在架构上必须保持一定的独立性。
所以,AI Box 目前的定位很清晰:它是座舱的「第二大脑」,不是智驾的替代方案。
图片来源:联想车计算
在 AI Box 之上,联想同步发布了 OneAI 汽车智能体平台。这个平台接入了联想天禧(海外名 Qira)智能体,通过统一账号和统一记忆体系,把PC、手机、平板和汽车打通。
按照许亮描绘的场景,「如果你用了联想的手机、联想的电脑、联想提供的车载系统,你在家里没完成的报告,一上车就无缝衔接了。」
不过这个设想能不能落地,还得取决于联想天禧智能体本身的能力水平和用户基数。但至少在产品架构上,这是联想相比纯汽车 Tier 1 供应商的一个差异化特点:它有跨设备生态。
二、三年实现「量产上路」
联想车计算过去三年都做了什么?
2022 年,联想正式成立车计算业务,最早隶属于联想研究院。许亮在采访中透露了一个业务上线的细节:因为联想跟英伟达在服务器领域合作紧密,英伟达建议他们,既然汽车赛道也有芯片需求,是不是可以做一个算力平台来支撑汽车业务的探索?
这一步走出去,之后的节奏比预想的要快。
2023 年 3 月,联想和英伟达签约,取得了最早一批 Thor 芯片的授权,甚至在 Thor 参考设计还没有公布的时候,联想车计算就已经开始参与样机开发了。在整个 Thor 生态里面,联想车计算是第一个合作伙伴、第一个推出产品、第一个拿到客户的Tier 1。
直到 2025 年,产品陆续量产落地:
一、基于双 Thor X 的 L4 自动驾驶域控制器 AD1,提供超过 2000 TOPS 算力,已经上车文远知行和 Nuro 的 Robotaxi;
二、基于单 Thor U 的 L2++ 辅助驾驶域控制器 AH1,量产搭载于智己 LS6、LS9 和 LS8。此外,RSE 后排娱乐方案也在奇瑞星纪元和 iCar V27 上线。
图片来源:现场拍摄
从 1.0 到 2.0,许亮把这个过程总结为三个关键词:扩产品型谱、建汽车基因、走全球化。
1.0 时代的目标是拿到入场券:建团队、做产品、找到第一批客户。2.0 时代的目标是在这个赛道里做好,甚至做到行业头部。许亮提到,2.0 阶段联想车计算已经拿到了韩国、日本和美国客户的项目,开始触达全球主流汽车玩家。
北京车展上,联想和文远知行签署全球战略合作,未来五年预计在全球部署 20 万台 Robotaxi 等自动驾驶车辆。联想方面透露,今年对文远的出货量将达到 5000 台。
图片来源:现场拍摄
双方合作的 HPC 3.0 高性能计算平台,基于 AD1 域控、双 Thor X 配置,做到了自动驾驶套件成本下降 50%,平台全生命周期 TCO 降低 84%。对成本极度敏感的 Robotaxi 商业模式而言,相当于提供了一个有力的商业可行性参数。
三、算力的「集成者」
如果想理解联想车计算的角色,可能需要跳出「又一家汽车Tier 1」的框架。
英伟达做芯片,车企做整车。中间需要有人把芯片变成车企能直接用的域控产品,也就是承担硬件设计、车规认证、量产制造、全球交付的全链条。这个角色,在消费电子行业早已被验证:高通做手机芯片,但手机品牌不直接找高通拿芯片做手机,中间有联想、三星这样的集成者完成从芯片到产品的转化。
联想车计算在汽车行业扮演的也是类似角色。
这个角色的核心壁垒不在技术独创性,而在规模效应和全球化能力。
许亮反复强调了几个数字:联想在全球有 30 多个制造基地,每年 1.3 亿台设备出货。
这意味着,首先,消费电子端的大规模出货高度摊销了汽车业务的研发和供应链成本。这个成本结构优势是纯汽车Tier 1 不具备的;其次,当 Robotaxi 需要全球化部署的时候,联想在各个目标市场可能已经有工厂、有本地化服务团队、有成熟的物流体系。
「我们去拿全球的业务,我们在当地可能已经有工厂,我需要造的只是汽车产线而已。」许亮说。
在芯片供应紧张的当下,这种全球化供应链能力还有另一层价值。
许亮提到,在行业保供率普遍较低的时期,联想可以提供高于行业数倍的保供率。「没有芯片就没有产能,根本不用谈价格。能保供本身就是汽车行业稀缺的资源。」
联想车计算曾经做过一个测算:到 2030 年,汽车行业对算力的总体需求规模将与 PC 行业相当。如果这个判断成立,那么在「芯片→域控产品→全球交付」这条链上拥有规模优势的集成者,就占据了一个结构性有利的位置。
当然,这个位置也面临多方挑战。
联想在汽车行业的品牌认知度远不如博世、大陆这些传统 Tier 1,也不如德赛西威这样的本土玩家。车企选择供应商的时候,品牌信任和行业口碑的权重很高。
许亮自己也承认,2.0 阶段最重要的任务之一是「建立汽车基因」。开发流程、工程体系、质量体系都要对齐行业标准。
从 IT 巨头跨界到汽车供应链,规模优势能否真正转化为竞争优势,仍然需要更多量产项目的验证。
四、从车计算到 Physical AI
联想在这届车展上还释放出一个信号:车计算平台的能力,不止于汽车。
联想与求之科技联合展示了一个具身智能应用:用车规级大算力平台驱动超轻量双臂机器人,实现「感知—决策—执行」的端侧闭环。
这个展示验证的是一个技术假设:车规级算力平台(高安全等级+大算力+实时性)天然适配机器人的「大脑」需求。
许亮在车展前的采访中提到,从去年开始就有机器人客户来寻求大算力平台支持。英伟达的 Orin 系列此前已经在智能制造和物流 AGV 领域获得应用。Thor 平台向机器人场景的延展,是一个合理的技术路径。
不过,具身智能目前在联想车计算的业务中还处于「联合展示」阶段,离规模化落地有距离。
一个更务实的看法可能是:这会为联想车计算的算力平台打开汽车之外的第二个应用场景,让同一套硬件投资在更大的市场中摊销成本。
从 2022 年组建团队、2023 年拿到 Thor 最早授权、2025 年多款产品量产上车,到 2026 年发布 2.0 战略并签下 20 万台 Robotaxi 部署计划,联想车计算用三年时间走完了从「入场」到「量产」,一家新汽车 Tier 1 供应商的必经之路。
接下来这个联想新业务部门可能要回答的问题是,在智能汽车算力需求持续爆发的趋势下,从 IT 行业跨界而来的「算力集成者」,能不能在汽车行业站稳脚跟?
许亮在采访中给出了一个判断,他说「算法没有走到稳定期的时候,算力不会停止脚步。100 TOPS 现在没有车厂再讲了,Thor X 推出 1000 TOPS 后就没人再提 Orin X 了。只要算法和硬件没有达到平衡,这个迭代就不会停。」
对联想车计算来说,算力迭代不停,就意味着机会窗口一直开着。
热门跟贴