1月29日,平头哥官网悄无声息地更新了。
平头哥官网上线
“真武”
PPU
一款名为“真武810E”的高端AI芯片静静上线,这颗曾在央视新闻联播画面中一闪而过的阿里自研PPU,终于不再遮遮掩掩。
阿里筹谋已久的AI战略拼图,至此揭开全貌——通义实验室、阿里云、平头哥,三者组成的“通云哥”黄金三角,第一次完整地站到了聚光灯下。
全球科技圈正在达成一个新共识,未来的AI竞争,拼的不再是单一模型,而是"算力+算法+基础设施"的系统工程。
此前,全球只有谷歌一家同时握有顶尖自研芯片(TPU)、世界级云平台(Google Cloud)和头部大模型(Gemini)。
现在,阿里成了第二个。
通义实验室负责模型,阿里云提供基础设施,平头哥输出底层算力。
三者在软硬件层面深度咬合,把算力效率榨到了极致,这套组合拳下来,“1+1+1>3”的系统级效应自然显现。
在摩尔定律放缓、高端芯片供应链受限的当下,谁能把每一滴算力都榨干,谁就握住了AI时代的定价权。
“通云哥”正在为阿里构建新的AI护城河。
阿里“通云哥”的黄金三角
“通云哥”是阿里AI战队的代号,由三块核心拼图紧密咬合。
第一块拼图:通义实验室。
阿里的大脑。2019年启动大模型研发,如今千问已是全球第一开源模型家族。
数据最能说明问题。千问衍生模型突破20万个,下载量破10亿次,平均每天110万次下载。彭博社统计显示,截至2025年10月,千问下载量已超越美国Llama。
Hugging Face上的数据更直观,全球开发者每天基于千问新增超200个模型。在机器人控制、代码生成、多语种翻译等领域,千问已是事实标准。2025年12月,仅凭5款小尺寸模型,单月下载量就超过Mistral、OpenAI、英伟达等6家国际头部AI厂商的总和。
沙利文报告显示,2025年上半年中国企业级大模型调用市场,千问占比第一。服务客户超100万家,包括OPPO、vivo、国家电网、中科院。连Meta的新模型“牛油果”项目,都选择蒸馏千问的开源版本。
第二块拼图:阿里云。
阿里的骨架。2009年成立,2013年实现单一集群5000台服务器规模。
2025年,Gartner年度报告给出定论:阿里云在IaaS基础设施能力上拿下全球第一。计算、存储、网络、安全四项核心指标全部最高分。
目前,阿里云运营着亚太第一的云计算网络。Omdia数据显示,已采用生成式AI的财富中国500强企业中,超53%选了阿里云。
为承载AI高强度计算,阿里云重构了底层架构。自研的HPN 8.0高性能网络,支持GPU互联带宽高达6.4Tbps,能让单集群10万卡GPU高效互联。自研CPFS并行文件存储系统,单客户端吞吐提升至40GB/s,解决了大模型训练中海量小文件的读取瓶颈。
第三块拼图:平头哥。
阿里的心脏。2018年成立的平头哥在芯片圈是个异类,一出生就背靠达摩院和中天微,拥有全栈自研能力。
这次亮相的“真武810E”PPU,参数相当激进:96GB HBM2e显存,片间互联带宽700GB/s,功耗400W。
这些数字意味着,在显存容量和互联带宽上,它已经能和英伟达主流产品正面交锋。96GB大显存精准命中了当前大模型训练的显存瓶颈,单张芯片可承载更大模型权重,推理吞吐量显著提升。
更关键的是,这个产品已在阿里云内部实现多个万卡集群部署,服务了国家电网、中科院、小鹏汽车等400多家客户。
至此,硬件、大模型、云,三位一体,阿里的全栈AI版图正式补齐。
“通云哥”对阿里的想象力
市场对阿里的科技定价一直非常模糊。
长期以来,公众眼中的阿里是一家电商公司,关注的是GMV,是商业模式创新。而谈到硬科技,人们只会想到英伟达、微软。
“通云哥”的出现,正在打破这种刻板印象。当一家公司同时握有全球领先的云、自主研发的高端芯片、以及第一梯队的开源模型,它就不应只是互联网平台,而应该对它的硬科技属性重新定价。
市场需要评估英伟达、谷歌的逻辑,重新审视阿里。
回头看阿里的AI布局,极具前瞻性。2017年达摩院成立,2018年平头哥诞生,2021年M6模型落地,2022年阿里云首提MaaS理念,2023年确立“用户为先、AI驱动”战略。
这是条清晰的草蛇灰线。
平头哥走到聚光灯下,让外界第一次看清了阿里的底牌——它早已掌握AI时代最重要的底层技术。未来的阿里,是为AI时代铺设“水电煤”的科技航母。
这种“三位一体”结构,将带来质变。
对平头哥而言,自研芯片可以直接在阿里云的万卡集群中验证、迭代。研发周期被极致压缩。真武芯片针对以Qwen3为代表的主流MoE架构模型做了大量优化,算子融合与指令集硬化,让千问跑得更快。
对通义而言,拥有底层硬件的定义权,意味着模型架构可以针对芯片特性进行原生优化。实测数据显示,在阿里云PAI平台上,通义大模型训练的端到端加速比提升了3倍以上;在推理层,吞吐量增加了71%,时延降低了70.6%。
对阿里云而言,自研芯片意味着摆脱了对外部算力的绝对依赖。在算力紧缺的当下,这是最大的护城河。自研芯片还能为企业客户提供更差异化的算力选择,进一步提升市场竞争力。
看一组数据,阿里云AI相关产品收入已连续9个季度实现三位数增长,AI已成为驱动阿里增长的核心引擎。
谷歌已经证明了这条路的价值。
谷歌的TPU配合TensorFlow和Gemini,让其在AI算力成本上拥有了极高的护城河。高盛的研究指出,随着迭代,专用ASIC芯片的推理成本降幅远超通用GPU。
阿里正在复刻,甚至超越这一路径。
“通云哥”的全栈AI优势在全球竞争力
全球云市场已经进入寡头时代。
亚马逊、微软、谷歌、阿里巴巴,这“四强”占据了全球超过80%的云平台市场份额,阿里是除美国三朵云外最重量级的玩家。
在这场超级AI云竞赛中,四巨头分化出了两条截然不同的路径。
第一条路:“云+生态”。
代表是亚马逊和微软。
微软深度绑定OpenAI,亚马逊重注Anthropic。它们利用资本纽带,快速将庞大的企业客户与外部顶尖模型连接。
这条路快,但有隐忧。
它们需要向英伟达支付高昂的“算力税”,每一块H100/H200芯片,都包含了英伟达极高的毛利,这意味着云厂商的成本底线被锁死。
它们需要依赖外部模型的IP。
微软虽然强大,但核心模型能力掌握在OpenAI手中,这是一种微妙的共生关系。
第二条路:“全栈自研”。
代表是谷歌和阿里。
这条路更难走。它们选择自己做芯片、做云、做模型,全球唯二。
但好处是显而易见的。
首先是极致的成本控制。高盛在最新的AI单位经济性报告中指出,从TPU v6到v7,每百万token的推理成本下降约70%,使其在绝对成本上与英伟达GB200 NVL72相当甚至略优。通过软硬一体化优化,单位算力的成本可以被压到最低。
这对于像阿里这样的巨头至关重要,在海外云巨头亚马逊AWS、谷歌云纷纷宣布涨价的背景下,算力成本控制将愈发重要。
此外,巴克莱的报告显示,中国独立AI实验室(如智谱、MiniMax)虽然模型优秀,但面临着极高的研发投入和昂贵的推理成本,它们的利润空间被底层算力厂商挤压。
而阿里实现了内部循环。
左手阿里云,右手通义,中间是平头哥。算力成本内部化,随着规模扩大,边际成本递减,这种成本优势,最终将转化为定价权。
其次是供应链的安全。在复杂的国际形势下,拥有自研芯片意味着掌握了生存的主动权。虽然先进制程受到限制,但阿里通过先进封装和架构优化(如HPN 8.0网络),用系统级能力弥补了单点性能的不足。
最后是服务的差异化。当所有人都用着一样的GPU、跑着一样的模型时,唯有全栈自研,才能根据客户需求,从芯片指令集到模型架构进行端到端的定制。
阿里巴巴选择了难走的路。
但科技行业的历史证明,难走的路,往往是通向最高壁垒的路。
随着“真武”亮相,“通云哥”成型,阿里已经拿到了通往AI决赛圈的门票。
在未来的全球计算版图上,这家中国公司,将占据一个不可替代的位置。它将成为全球AI基础设施中,除了美国体系之外的另一种极具竞争力的选择。
“通云哥”,不仅重塑了阿里的估值逻辑,也将对全球AI技术版图产生深远影响。
*以上内容不构成投资建议,不代表刊登平台之观点,市场有风险,投资需谨慎,请独立判断和决策。
热门跟贴