打开网易新闻 查看精彩图片

AI即将迎来它的“寡头时代”。

执掌阿里的吴泳铭明确表示:阿里全栈AI技术投入已正式跨越初期培育阶段,进入正向的规模商业化回报周期。

意思是,AI能帮阿里赚钱了。但帮其赚钱的不仅仅是千问、也不仅仅是阿里云,而是凭借“自研平头哥芯片+千问大模型+阿里云+应用生态”形成的全栈AI能力。

而目前像阿里一样依靠AI全栈能力“稳坐中军帐”的厂商,全球只有大洋彼岸的谷歌。当AI双强已于顶峰相见,留给“大厂兄弟们”的时间,不多了。

5月13日,百度创始人李彦宏公开表示:“为更好地服务客户、用户、开发者与合作伙伴,百度将持续投入,加强全栈能力,构建智能体原生基础设施,实现‘芯云模体’的全面进化。”李彦宏发令,百度开始加速跑,试图抢一张“AI全栈的船票”。

同一天,腾讯股东大会上,腾讯董事会主席兼首席执行官马化腾谈及「腾讯AI是否落后时表示」“原来一年前我们以为上了船,后来发现那个船漏水了,现在感觉站上去了,还坐不下去,还是希望船速能快一点。”

强如腾讯这样的“港股印钞机”,赚钱能力毋庸置疑,但是在AI新战壕里,还没找到“座位”。

AI时代,全栈是少数人的游戏

时间的指针稍往前拨,进入2026年,人工智能产业从“百模大战”进入到“全栈竞争”阶段。细数之下发现,能熬过“百模大战”的企业似乎也已经不多了。

以中美为代表的全球巨头企业,也扛不住这个烧钱速度。“百模大战”是一场淘汰赛,至少多数玩家曾有过试错的机会。

AI全栈,这一定是少数玩家的游戏,有资格坐上牌桌的企业,屈指可数。与移动互联网时代不同,AI时代对大型科技公司的要求不再是单项技术优势,而是多应用协同整合的全栈能力。

当AI从模型升级为智能体,成为企业核心生产力引擎,全栈AI能力已从“竞争优势”变为“生存必需”。

简单直接地来看,AI上层连接着模型、数据和应用,下层紧密连接着芯片,如果不具备全栈服务的能力,意味着一个厂商可能在各个环节都会有外部因素“掣肘”,压制AI综合性能优势发挥。

只有具备全栈能力的厂商才能在激烈竞争中持续迭代、建立差异化壁垒。而所谓的全栈AI,是包括底层芯片、算力基础设施,到模型框架、应用生态的端到端自主可控能力。

它不仅仅是简单的技术叠加,而是构建AI时代商业护城河的唯一路径。成本控制成为AI全栈能力的首要价值体现。

随着AI大模型的规模化应用,其训练与推理成本居高不下——大模型训练成本动辄以亿计,推理成本更是随用户规模增长呈指数级上升,这也让全栈布局成为企业降本增效的必然选择。

据中国信通院参与编写的《大模型推理优化与部署实践产业洞察研究报告》,在当前技术背景下,“芯片-框架-模型”三位一体的协同优化理念,能充分释放芯片算力潜能,可将GPU利用率提升至60%-80%,有效降低推理成本。

谷歌的实践也印证了这一点,其TPU芯片与Gemini模型深度绑定后,训练效率提升5倍,成本降低65%。

除了成本优势,AI全栈能力带来的技术协同效应,更能创造指数级商业价值。智能体对实时决策、跨模态理解和长程规划的需求日益迫切,传统“算力归算力、模型归模型、应用归应用”的分层架构,已难以满足产业发展需求。而全栈布局能够实现“芯片为模型定制、模型为应用优化、应用反哺数据”的正向循环,推动技术价值向商业价值转化。谷歌方面表示,将Gemini模型植入搜索、YouTube等核心业务后,广告转化率提升了30%,凸显了全栈协同的商业价值。

在商业壁垒构建方面,AI全栈能力正成为大厂巩固优势的核心支撑。具备全栈能力的企业,能够从底层技术到上层应用,全面掌控用户价值链条,形成“技术-数据-商业”的闭环,进一步拉大与同行的差距。以阿里为例,其2026财年Q4 AI相关收入达89.71亿元,年化收入突破358亿元,占阿里云外部收入的30%,这标志着全栈AI能力已从企业的“成本中心”成功转型为“利润中心”。

供应链安全则是全栈AI能力的另一重关键价值。当前,全球AI芯片供应紧张,英伟达GPU溢价严重,依赖外部采购芯片的企业正面临“卡脖子”风险,而AI全栈能力成为保障供应链安全的“最后一道防线”。目前,谷歌、阿里等企业通过自研芯片,已成功摆脱对外部供应链的依赖,确保了AI战略的连续性。据悉,阿里平头哥真武芯片将于2026年实现量产,谷歌TPUv8系列也计划在2026年出货数百万片,为企业AI业务的持续扩张奠定坚实基础。可以预见,具备端到端自主可控全栈能力的企业,将在AI产业竞争中占据主动地位。

谷歌、阿里——全球唯二的AI全栈玩家

申万宏源研报显示,在全球头部云厂商中,仅谷歌与阿里选择“全栈自研”路径,在云计算、基础大模型、AI芯片三大层面同步追求顶级自研能力。

谷歌是全栈AI的“开山鼻祖”,自2016年TPU诞生以来,已形成“TPU+Gemini+谷歌云+全球应用生态”的黄金闭环。

芯片层,TPU v8系列采用“训推分离”设计,同等成本性能较前代提升2.8倍,能效比英伟达GPU高40%,数据中心部署超百万片,量产成本降低20%-30%。

算力层,Google Cloud+TPU Pod支持2048卡超大规模训练,通信时延降低,作为全球TOP3云厂商,具备跨地域百万卡级调度能力。

模型层,Gemini模型实现原生全模态融合,上下文窗口达100万tokens,多项权威评测全球第一,企业版ARR超接近200亿美元。

应用层,AI深度植入搜索、YouTube等产品,搜索AI生成结果占比72%,核心业务AI驱动收入显著增长。其核心优势是“芯片-模型-云-应用”的深度协同,推理速度提升的同时成本降低,ROI良性循环。

阿里是中国的全栈AI标杆,以“通云哥”体系为核心,也构建起了“平头哥芯片+飞天智算+通义千问+超级商业生态”闭环。

芯片层,其真武810E比肩英伟达H20,累计交付47万片,超60%服务外部客户,2026年真武芯片规模化量产。

算力层,飞天智算+百炼MaaS使千卡级训练效率提升、推理成本降低。阿里云作为全球行业头部云厂商,2026财年Q4 AI收入89.71亿元,年化收入突破358亿元,百炼MaaS年底ARR目标300亿。

模型层,通义千问Qwen 2.5/3.0中文理解全球第一,与平头哥芯片深度适配,实现训练效率的提升。

应用层,AI融入电商、钉钉等场景,淘宝AI数字人直播转化率提升25%。“通云哥”体系深度整合,使MaaS响应速度极大提升,2025年AI业务进入商业化回报周期。除了阿里之外,凭借“产品力”赢得市场信赖的字节,在AI全栈能力方面声量也小了一些。

除了豆包大模型之外,字节在自研芯片方面进展不及阿里和百度。英伟达H20对华解禁时,市场也曾有消息传出字节签下订单。不过市场上有关字节自研芯片的进展还停留在“字节自研芯片团队超千人,已形成四大产品线”阶段。

而同样受自研芯片制约的还有腾讯,当平头哥和昆仑芯都悄悄迈向IPO时,有关腾讯自研芯片的消息似乎迟迟没有传来。

但是,拥有自研芯片、自研模型以及应用生态的华为曾经也是亮眼的种子选手。值得注意的是,4月24日,DeepSeek发布V4新版本模型,在其技术报告中,华为昇腾NPU位列其中。媒体报道称这标志着万亿参数级别的模型首次在正式文档中完成了对国产AI芯片的“官方认定”。昇腾芯片是国产算力阵营中的代表,也是华为整个AI战略的基础。值得玩味的是,尽管华为也具备AI全栈能力,但在最新的模型榜单中,其自研盘古大模型在全球AI模型榜单上却难觅踪影,这也成为华为当下AI全栈的最大短板。

打开网易新闻 查看精彩图片

(图源:Artificial Intelligence)

百度,机会难得,必须一博

这次百度Create大会上,李彦宏罕见表态称,“这是一次我们从未见过的大变革,也是一次我们从未有过的大机会。”

百度集团执行副总裁、百度智能云事业群总裁沈抖在会上宣布:“基于百度在昆仑芯、AI云、文心大模型、智能体等方面的丰富实践,百度智能云将全面升级为面向大规模智能体应用的新全栈AI云,打造单位Token智能水平最好的Agent Infra。”

这意味着百度智能云将升级为新的全栈AI云。百度过去错过了不少,这一次真的不能再有闪失了。也正是看到了全栈AI的巨大价值和潜力,这值得整个百度AII in一搏。但即便如此,在构建AI全栈能力方面,百度仍然存在着差距。

一方面是其云平台规模与全球算力调度能力尚有不足。根据沙利文发布的《中国全栈AI云服务(公有云)市场报告2025H1》,2025年上半年,中国全栈AI云服务市场规模达259亿元。其中,阿里云以30.2%的市场份额位居第一,百度智能云以22.5%的市场份额位居第二。作为AI全栈的“算力底座”,云平台的规模直接决定了AI服务的覆盖范围、调度效率和成本控制能力。百度智能云在国内MaaS市场的份额优势尚不明显,这将影响其MaaS服务的整体竞争力。

打开网易新闻 查看精彩图片

另一方面,在场景生态的广度和商业化的深度方面仍存在差距。谷歌有搜索、YouTube、安卓、Workspace等全球超级场景,阿里有电商、支付、本地生活等国民级生态,这些场景为AI提供了海量数据和变现渠道。而百度的核心场景集中在搜索、文库、网盘、地图等领域,缺乏高频消费级超级入口,C端变现能力相对较弱。

除此之外,阿里层宣布将投资3800亿元用于AI建设,而百度受限于营收规模,投入力度相对较小。

不过,百度也有自身优势。昆仑芯自研起步早,文心模型在中文理解和行业应用上表现突出,飞桨框架生态完善。若在云平台扩张和生态建设上实现突破,至少百度能争取上桌。