10月10日,AMD公司推出了一款新的人工智能芯片—— Instinct MI325X,直接瞄准了 Nvidia 的数据中心图形处理器GPU。AMD公司也没有透露 Instinct MI325X 的定价,该芯片通常作为完整服务器的一部分出售。
该芯片将于 2024 年底前开始生产。如果 AMD 的 AI 芯片被开发人员和云巨头视为产品的接近替代品,这可能会给 Nvidia 带来价格压力,该公司的毛利率约为 75%,而英伟达的GPU 在过去一年中一直需求量很大。
OpenAI 的 ChatGPT 等高级生成式 AI 需要装满 GPU 的大量数据中心才能进行必要的处理,创造了更多公司提供 AI 芯片的需求。
在过去的几年里,Nvidia 主导了数据中心 GPU 市场的大部分,但 AMD 历来位居第二。现在,AMD 的目标是从硅谷竞争对手那里夺取更多份额,或者至少占领很大一部分市场,它表示到 2028 年该市场的价值将达到 5000 亿美元。
AMD 在活动中没有透露其 Instinct GPU 的新主要云或互联网客户Meta和Microsoft,两者都购买了其 AI GPU,并且 OpenAI 将它们用于某些应用。
随着 MI325X 的推出,AMD 正在加快其产品计划,每年发布新芯片,以更好地与 Nvidia 竞争并利用 AI 芯片的繁荣。新的 AI 芯片是 MI300X 的继任者,AMD 的 2025 芯片将被称为MI350,其 2026 年的芯片将被称为 MI400。
MI325X 的推出将使其与 Nvidia 即将推出的 Blackwell 芯片相抗衡,Nvidia 表示该芯片将于明年初开始大量出货。
AMD 最新数据中心 GPU 的成功推出可能会引起投资者的兴趣。AMD 在 2024 年迄今仅上涨了 20%,而Nvidia的股价上涨了175% 以上。大多数行业估计表明,Nvidia 拥有超过 90% 的数据中心 AI 芯片市场。
奇怪的是,新产品发布,而AMD的股价周四下跌 4%,英伟达股价却上涨约 1%。
AMD 抢占市场份额的最大障碍是其竞争对手的芯片使用自己的编程语言CUDA,该语言已成为 AI 开发人员的标准。这基本上将开发人员锁定在 Nvidia 的生态系统中。
作为回应,AMD表示,一直在改进其名为ROCm的竞争软件,以便AI开发人员可以轻松地将更多AI模型切换到AMD的芯片,称之为加速器。
AMD 将其 AI 加速器定义为在 AI 模型创建内容或进行预测的用例中更具竞争力,而不是在 AI 模型处理数 TB 数据以进行改进时。该公司表示,这部分是由于 AMD 在其芯片上使用了先进的内存,这使它能够比某些 Nvidia 芯片更快地为 Meta 的 Llama AI 模型提供服务。
“你看到的是,MI325 平台的推理性能比 Llama 3.1 上的 H200 高出 40%,”Su 说,他指的是大型语言 AI 模型。Meta 的
热门跟贴