「AI4已经足够实现比人类更安全的完全自动驾驶。」——马斯克这句话,让期待新车芯片的车主愣在原地。

4月15日,马斯克在X平台宣布特斯拉AI5芯片完成「流片」(设计定稿、准备量产)。官方宣称性能提升40倍,单颗算力相当于两颗AI4芯片的2.5倍。但紧接着的补刀更耐人寻味:这批芯片优先供给Optimus人形机器人和超算集群,而非你我的Model Y。

打开网易新闻 查看精彩图片

一边疯狂堆算力,一边按住不装车。特斯拉的芯片策略,正在暴露一个被忽视的真相——FSD(完全自动驾驶)的瓶颈从来不在硬件。

流片完成:一场精心设计的「技术秀」

芯片行业有个关键节点叫「tape-out」(流片)。设计团队把最终版图交给晶圆厂,意味着数亿美元的赌注已经拍下,没有回头路。

马斯克选择在这个节点高调官宣,时机微妙。AI5的流片消息与Dojo3超算、AI6下一代芯片被打包发布,形成一条清晰的技术叙事线:特斯拉的芯片迭代速度正在追赶英伟达。

但技术参数背后藏着更硬的商业逻辑。AI5的模块尺寸约为AI4的一半,这直接关系到量产成本——更小的die size意味着单片晶圆产出更多芯片,良率曲线也更友好。对于计划年产数百万辆车的特斯拉而言,这省下的不是小钱。

问题在于:省下来的成本,没打算补贴给车主。

马斯克明确划定了优先级:Optimus机器人第一,超算集群第二,车载应用排在末位。这个排序本身就在重新定义特斯拉的边界——它不再是一家卖车公司,而是一家卖「具身智能」和「算力基础设施」的公司。

AI4「够用论」:马斯克在赌什么?

「AI4已经足够实现比人类更安全的FSD。」

这句话需要拆解两层。第一层是技术判断:现有144TOPS(万亿次运算/秒)的AI4芯片,理论上能支撑端到端神经网络完成L4级自动驾驶。第二层是商业止损:全球数百万辆已售车型搭载AI4,若承认其「不够用」,等于宣告这批车的硬件价值瞬间折损。

特斯拉的FSD V12已经证明,端到端架构大幅降低了对规则代码的依赖。系统不再靠程序员手写「如果遇到红灯则停车」,而是从海量人类驾驶视频中学习「在这种情况下人类会怎么做」。这种范式转移让算力效率提升,但也让算力需求变得难以预测——你永远不知道神经网络为了处理某个极端场景,需要多深的网络层数。

马斯克押注的是:通过算法优化和数据闭环,AI4能撑到FSD真正成熟的那一天。

这个赌注的风险在于时间。特斯拉2024年Q4财报电话会上,自动驾驶团队承认V12的干预率仍在每千英里0.3次左右,距离人类水平的每亿英里1次致命事故率,差距不是十倍而是千倍。如果算法迭代速度不及预期,AI4的「够用」就会变成「将就」,而竞争对手的Orin-X甚至Thor芯片正在疯狂堆料。

更隐蔽的博弈在二手市场。特斯拉的残值高度绑定FSD能力承诺,若官方承认AI4无法支持终极版FSD,现存车辆的软件订阅价值将崩塌。马斯克必须维持「AI4够用」的叙事,直到下一代车型自然替换掉这批硬件。

芯片去哪了:机器人与超算的双向吞噬

AI5的优先去向,暴露了特斯拉的资源分配真相。

Optimus人形机器人是头号吞金兽。马斯克为其设定的2025年量产目标已从「数千台」下调至「小批量测试」,但算力需求丝毫不减。人形机器人需要实时处理视觉、力控、平衡、任务规划的多模态融合,其计算密集度甚至高于自动驾驶——毕竟车不会摔倒,机器人会。

更关键的是训练端。Optimus的「大脑」需要在仿真环境中完成数百万小时的强化学习,这吞噬的是Dojo超算的算力配额。AI5芯片将同时部署在机器人本体(推理)和训练集群(训练),形成垂直整合的闭环。

超算集群是第二个黑洞。马斯克2024年提出的「Terafab」计划,目标年产1艾瓦(10^18瓦)级算力。作为参照,英伟达2024年交付的GPU总算力约为5艾瓦。特斯拉若真建成这一产能,将成为全球前五的算力供应商,与亚马逊AWS、微软Azure、谷歌云、Meta同台竞技。

这个布局的野心在于:当其他车企还在纠结「要不要自研芯片」,特斯拉已经在设计「卖算力」的商业模式。Dojo超算对外出租训练服务,AI5芯片对外供应机器人厂商,软件订阅费变成算力使用费——车的利润天花板太低,基础设施的利润天花板是星辰大海。

但资源倾斜的代价是车主的等待。AI5装车的时间表被刻意模糊,马斯克只说了「以后会有」。参照AI3到AI4的换代周期(2021-2023),AI5上车可能要到2027年以后。届时购买FSD的车主,已经在旧芯片上跑了五六年。

40倍提升的「水分」:算力叙事的游戏规则

「40倍性能提升」是个需要警惕的数字。

芯片行业的性能对比向来是玄学。是峰值算力对比?持续算力对比?特定模型下的有效算力对比?特斯拉从未公布AI4的详细架构,AI5的40倍基准线模糊不清。

更务实的观察维度是「单位瓦特的有效算力」。车载场景对功耗极度敏感,AI4的100W功耗已经是散热设计的极限。若AI5性能提升40倍而功耗同比飙升,装车将面临热管理重构,这解释了为何优先供给机器人和超算——它们有风扇、有液冷、有不在乎电费的机房。

另一个被忽视的指标是内存带宽。Transformer架构的瓶颈 increasingly 不在计算而在数据搬运,AI5的HBM(高带宽存储)配置才是决定实际吞吐的关键。马斯克对此讳莫如深,只谈算力倍数不谈内存墙,是典型的营销话术。

但即便数字有水分,方向是明确的:特斯拉正在构建从终端到云端的全栈算力体系。AI5是其中一环,AI6、Dojo3是后续弹药。这种垂直整合的深度,全球只有苹果、华为、特斯拉三家在玩,而前两家不做自动驾驶。

车主的困境:为期货买单的人

2024年,特斯拉在美国将FSD订阅价从199美元/月降至99美元,买断价从12000美元降至8000美元。表面是促销,实则是对「硬件终身可用」承诺的变相稀释。

购买FSD的车主陷入一个尴尬的博弈:他们预付的是「终极版自动驾驶」的费用,但拿到的硬件可能是过渡方案。AI4「够用」的论断由马斯克单方面定义,没有第三方验证,没有退出机制。如果2027年AI5上车后FSD仍不完善,责任是算法不够还是硬件不够?解释权永远在特斯拉。

更深层的问题在于软件定义汽车的伦理边界。传统汽车的功能边界由硬件锁定,消费者知情且接受。特斯拉的模式是硬件预埋、软件解锁、能力渐进——这本质上是把技术风险转嫁给早期用户,用他们的数据和耐心喂养系统成熟。

AI5的延迟装车,让这种不对等更加刺眼。车主为「未来能力」支付了溢价,却发现未来被优先分配给了机器人和超算客户。特斯拉的算力产能不是不够,只是你的优先级不够高。

行业镜像:自研芯片的集体焦虑

特斯拉的芯片策略是一面镜子,照出智能电动车行业的集体困境。

英伟达Orin-X(254TOPS)到Thor(2000TOPS)的迭代,让车企陷入「算力军备竞赛」。但算力堆砌的边际效用递减:从100TOPS到1000TOPS,感知能力提升明显;从1000TOPS到2000TOPS,算法架构不革新则收益有限。

特斯拉选择自研,表面是成本考量(英伟达芯片毛利率超70%),深层是数据闭环的防御性布局。FSD的神经网络需要针对特斯拉的传感器配置、数据分布、驾驶风格持续优化,通用芯片的灵活性反而成为负担。AI5的架构必然深度耦合特斯拉的模型结构,这是英伟达无法提供的「专用性溢价」。

但自研的代价是生态孤立。英伟达CUDA生态培养了数百万开发者,特斯拉的编译工具链只有内部团队。当FSD需要引入第三方算法模块时,这种封闭性会成为瓶颈。马斯克提及的「AI6、Dojo3及其他令人兴奋的芯片」,暗示迭代速度正在加快,但也意味着每一代硬件的生命周期被压缩,摊销成本上升。

国内玩家的路径分化更值得玩味。华为昇腾系列走全栈垂直路线,与特斯拉最像;小鹏、蔚来依赖英伟达但自研中间件;理想近期宣布与地平线合作定制芯片。没有标准答案,只有对「控制力」与「灵活性」的不同权重分配。

实用判断:这件事为什么重要

AI5芯片的发布,标志着特斯拉完成了一次关键的身份切换:从「用芯片造好车」变成「用造车的钱造芯片,再用芯片赚更难赚的钱」。

对车主的直接影响是:如果你现在购买FSD,需要接受你的硬件可能是「过渡代」。AI4能否支撑终极版FSD,取决于马斯克对「足够好」的定义,而这个定义会随商业利益漂移。

对行业的长期影响是:算力正在成为智能电动车的「第二发动机」,其重要性不亚于电池。特斯拉的垂直整合深度,正在拉开与跟随者的代差——不是技术代差,而是商业模式的代差。当竞争对手还在卖「硬件+软件」的捆绑包,特斯拉已经在设计「硬件即服务、软件即订阅、算力即基础设施」的三层变现。

最务实的建议是:评估一辆智能电动车的长期价值时,把「芯片可升级性」纳入决策框架。不是看发布会上的峰值算力数字,而是看厂商的芯片迭代历史、软件承诺的兑现记录、以及硬件锁定的退出成本。特斯拉车主的遭遇证明,为「未来能力」预付全款,可能是一场不对称的博弈。

至于AI5本身,它真正的战场不在你的车库,而在机器人的关节和超算的机架里。马斯克的选择已经说明:在特斯拉的优先级排序中,具身智能和算力基础设施的想象空间,远比让现有车主早点用上新芯片更诱人。