随着人工智能从模型训练发展到推理阶段,Akamai Technologies宣布在AI发展史上达成重要里程碑,推出首个全球规模的Nvidia AI Grid参考设计实现。
Akamai指出,第一波AI基础设施的特点是在少数几个集中位置部署大型图形处理单元GPU集群,主要针对训练进行优化。但该公司强调,随着推理成为主要工作负载,各行业企业专注于构建AI智能体,这种集中式模型面临着早期互联网基础设施在媒体传输、在线游戏、金融交易和复杂微服务应用中遇到的相同扩展限制。
Akamai声称通过相同的基本方法解决了这些挑战——分布式网络、智能编排和专用系统,将内容和上下文尽可能贴近数字接触点。
这一方案据称能够为采用该模型的企业带来改善的用户体验和更强的投资回报,同时能够部署具有上下文感知能力和自适应响应能力的AI智能体。Akamai认为这代表了AI工厂从孤立安装向全球分布式公用事业演进的蓝图。
与Nvidia的合作标志着Akamai推理云发展的重要一步,该服务于2025年10月推出,旨在将这种架构应用于AI工厂,通过将密集计算从核心分布到边缘来支持下一波扩展和增长。
通过将Nvidia AI基础设施集成到Akamai的基础设施中,并在其网络中利用智能工作负载编排,Akamai旨在推动行业从孤立的AI工厂转向统一的分布式AI推理网格。
AI Grid的核心是一个智能编排器,充当AI请求的实时代理。通过将应用性能优化应用于AI,这个工作负载感知控制平面据称能够通过大幅改善每Token成本、首Token时间和吞吐量来优化"Token经济学"。
在Token经济学的新世界中,Akamai相信企业可以通过自动将工作负载匹配到合适的计算层来"显著"降低推理成本。编排器应用语义缓存和智能路由等技术,将请求引导到合适规模的资源,为真正需要的工作负载保留优质GPU周期。支撑这一切的是Akamai云基础设施,为大规模数据密集型AI操作提供支持。
Akamai云技术组首席运营官兼总经理Adam Karon表示:"AI工厂专为训练和前沿模型工作负载而构建——集中式基础设施将继续为这些用例提供最佳的Token经济学。但实时视频、物理AI和高并发个性化体验需要在接触点进行推理,而不是往返集中式集群。我们的AI Grid智能编排为AI工厂提供了向外扩展推理的方法——利用革命性内容传输的相同分布式架构,在合适的成本和时间将AI工作负载路由到4400个位置。"
深入了解用例,Akamai表示金融机构可以在登录和首屏之间的瞬间执行个性化欺诈检测和营销推荐,广播公司可以为全球观众实时转码和配音内容,零售商可以在销售点采用该网络进行店内AI应用和员工生产力工具。
这些成果建立在Akamai全球分布式边缘网络的基础上,拥有超过4400个位置,集成缓存和无服务器边缘计算,在用户接触点处理请求,绕过依赖原点云的往返延迟。
作为首个运营化AI Grid的公司,Akamai正在部署数千个Nvidia RTX PRO 6000 Blackwell服务器版GPU,提供一个平台,使企业能够以本地计算的响应性和全球网络的规模运行智能体和物理AI。由Blackwell服务器版GPU驱动的GPU集群为最重的AI工作负载提供集中算力,与分布式边缘和集中规模相辅相成。
Nvidia全球电信业务发展副总裁Chris Penrose评论道:"新的AI原生应用需要行星级规模的可预测延迟和更好的成本效率。通过运营化Nvidia AI Grid,Akamai正在为生成式、智能体和物理AI构建连接组织,将智能直接移动到数据端,释放下一波实时应用。"
Q&A
Q1:什么是Akamai AI Grid?它有什么特点?
A:Akamai AI Grid是首个全球规模的智能编排系统,基于Nvidia AI Grid参考设计。它的核心特点是通过分布式网络和智能编排,将AI推理能力从集中式数据中心扩展到全球4400多个边缘位置,实现就近处理AI请求。
Q2:AI Grid如何优化Token经济学?
A:AI Grid通过智能编排器作为实时代理,应用语义缓存和智能路由技术,自动将工作负载匹配到合适的计算层,大幅改善每Token成本、首Token时间和吞吐量,为真正需要的工作负载保留优质GPU资源。
Q3:AI Grid适用于哪些行业应用场景?
A:金融机构可用于登录瞬间的个性化欺诈检测和营销推荐,广播公司可实时转码和配音内容,零售商可在销售点部署店内AI应用和员工生产力工具,这些都需要低延迟的实时AI推理能力。
热门跟贴