打开网易新闻 查看精彩图片

当地时间2月17日,英伟达(NVIDIA)与 Meta 宣布建立多年、跨世代的战略合作伙伴关系,涵盖本地部署、云和 AI 基础设施。

Meta将构建针对训练和推理进行优化的超大规模数据中心,以支持公司长期的 AI 基础设施路线图。此次合作将实现英伟达 CPU 和数百万个Blackwell 和 Rubin GPU 的大规模部署,以及将英伟达 Spectrum-X™ 以太网交换机集成到 Meta 的 Facebook 开放式交换系统平台中。

“目前还没有哪家公司能像 Meta 一样大规模部署人工智能——将前沿研究与工业级基础设施相结合,为数十亿用户打造全球规模最大的个性化和推荐系统,”英伟达创始人兼首席执行官黄仁勋表示。“通过 CPU、GPU、网络和软件的深度协同设计,我们将完整的英伟达平台带给 Meta 的研究人员和工程师,助力他们构建下一代人工智能前沿的基础。”

Meta创始人兼首席执行官马克·扎克伯格表示:“我们很高兴能够扩大与英伟达的合作,利用其 Vera Rubin 平台构建领先的集群,为全世界每个人提供个人超级智能。”

Meta和英伟达继续合作,在其数据中心生产应用中部署基于 Arm 的英伟达Grace™ CPU,以提升性能,这是 Meta 长期基础设施战略的一部分,旨在显著提高其数据中心的每瓦性能。

此次合作代表了英伟达Grace 的首次大规模部署,并通过对 CPU 生态系统库的共同设计和软件优化投资,提高了每一代处理器的每瓦性能。

两家公司还在合作部署 NVIDIA Vera CPU,有望在 2027 年实现大规模部署,进一步扩大 Meta 的节能型 AI 计算范围,并推进更广泛的 Arm 软件生态系统。

Meta 将部署业界领先的基于英伟达GB300 的系统,并创建一个涵盖本地数据中心和英伟达云合作伙伴部署的统一架构,以简化操作,同时最大限度地提高性能和可扩展性。

此外,Meta 已在其基础设施范围内采用英伟达Spectrum-X 以太网网络平台,以提供 AI 规模的网络,从而提供可预测的低延迟性能,同时最大限度地提高利用率并提高运营和电源效率。

Meta 的机密计算功能已采用NVIDIA 机密计算功能,用于 WhatsApp 的私密处理,从而在整个消息平台上启用 AI 驱动的功能,同时确保用户数据的机密性和完整性。

英伟达和 Meta 正在合作,将英伟达Confidential Compute 的功能从 WhatsApp 扩展到 Meta 产品组合中的新兴用例,从而大规模支持隐私增强型 AI。

英伟达和 Meta 的工程团队正携手合作,共同设计 Meta 的下一代 AI 模型,以优化和加速 Meta 核心工作负载中的尖端 AI 模型。这些努力将英伟达的全栈平台与 Meta 的大规模生产工作负载相结合,从而为全球数十亿用户使用的全新 AI 功能带来更高的性能和效率。

编辑:芯智讯-林子