该公司同时确认下一代Trainium4芯片将支持英伟达NVLink Fusion技术。

打开网易新闻 查看精彩图片

随着AI算力需求持续激增,亚马逊云科技正加码投入自研芯片战略。在12月2日的AWS re:Invent 2025大会上,公司发布了新一代训练芯片Trainium3及大规模Trainium3 UltraServer系统,并透露下一代处理器Trainium4已进入研发阶段。

据AWS介绍,Trainium3在训练和推理任务中的性能达到Trainium2的四倍以上,内存容量也提升至四倍。公司同时重构了系统架构:每台UltraServer可搭载144颗Trainium3芯片,支持客户将数千台此类系统互联。在最大规模配置下,单次部署可使用多达100万颗Trainium3芯片,较前代提升十倍。

能效是另一大改进重点。AWS表示,Trainium3系统在提升计算吞吐量的同时功耗降低约40%。面对数据中心快速扩张和能源需求增长的压力,新设计有望减轻基础设施负担并降低AI运营成本。

目前已有Anthropic、日本大语言模型初创企业Karakuri、SplashMusic及Decart等早期用户部署Trainium3。这些客户反馈显示,其在推理性能、迭代速度及可计费计算时长方面均有显著改善。

下一代芯片初露锋芒

AWS首次披露了Trainium4的研发进展。虽未公布具体发布时间,但确认该芯片将实现性能的又一次大幅跨越。最引人注目的是其兼容英伟达NVLink Fusion——这项高速芯片互连技术支持构建大规模紧耦合AI计算集群。

这一动向表明,AWS不再试图将其硬件定位为英伟达芯片的完全替代品,转而构建混合生态系统,使自研芯片能够接入、扩展或补充英伟达GPU系统。对于基于行业标准CUDA框架开发的企业,此举可降低软件重构成本,更便捷地采用AWS定制硬件。

AWS与英伟达深化协同

伴随芯片发布,双方宣布扩大战略合作,涵盖互连技术、数据中心基础设施、开放模型支持及机架级AI系统部署。AWS将在Trainium4、Graviton CPU及Nitro虚拟化硬件等未来平台中集成英伟达NVLink Fusion,并已规模化部署基于MGX架构的英伟达机架系统。

通过支持NVLink Fusion,AWS期望实现混合硬件环境的统一管理与便捷部署,同时将接入包含供电、散热、机箱设计等环节的完整供应链生态系统。这标志着AWS正构建可定制化的灵活AI超算平台,以匹配不同工作负载需求。

目前AWS未公布Trainium3 UltraServer的定价与上市时间。Trainium4虽仍在开发中,但发展路径已清晰可见:随着AI规模持续扩张,更大规模集群、混合计算架构及与英伟达平台的深度融合将成为必然趋势。

如果朋友们喜欢,敬请关注“知新了了”!