RISC之父泼下冷水:AI芯片狂热背后,是被忽视的架构错配与经济危机

打开网易新闻 查看精彩图片

David Patterson并非外行批评,他是RISC架构的发明者,这一精简指令集理念如今支撑着全球99%以上的移动处理器与服务器芯片,同时他也是Google TPU的核心架构设计者,深度参与AI算力硬件的研发与落地。他的判断,不是对AI前景的否定,而是基于工程实践与物理规律的理性提醒。在他看来,行业正陷入一个巨大误区:把训练场景的硬件逻辑,直接套用到推理场景。过去两年,几乎所有AI芯片都以“峰值算力”为核心指标,厂商比拼TOPS数值、显存容量、互联带宽,用训练芯片的思路做推理,导致大量资源被浪费,成本居高不下。

真正的问题藏在“内存墙”里。大语言模型推理的核心瓶颈不是算力,而是数据搬运效率。Transformer模型的自回归生成特性,决定了推理过程是低计算密度、高访存需求的模式。现有高端GPU满载算力、堆叠HBM的设计,在推理场景下有效算力利用率仅40%-60%,大量晶体管与功耗消耗在数据等待上,而非实际计算。这就像用顶级跑车送快递,马力再强,也会被拥堵的道路限制效率,反而造成极高的能耗与成本。Patterson用数据证明,即便拥有最先进的GPU集群,为万亿参数大模型提供推理服务依然在“烧钱”,电力、散热、折旧成本让商业化举步维艰。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

这场错配背后,是整个行业的路径依赖。长期以来,推理硬件都是训练硬件的“简化版”,厂商直接砍掉部分算力、降低显存规格推向市场,从未针对推理做专门的架构设计。而随着模型从密集型走向MoE稀疏化,推理对内存带宽、能效比的要求进一步提升,传统GPU架构的短板被无限放大。更危险的是,资本与市场被峰值算力误导,盲目追求参数与制程,忽视真实场景的性价比,导致大量算力投入后无法转化为商业价值,形成“高投入、低回报”的恶性循环。

行业内的理性声音正在形成共鸣。比尔·盖茨曾指出,大量资金盲目涌入高端AI芯片,未等回本就因技术迭代沦为闲置资产,重演互联网泡沫的悲剧;中芯国际、阿里巴巴等企业高层相继警示,AI数据中心与芯片投资已出现泡沫迹象,全球算力利用率持续低于健康阈值,大量先进芯片处于通电闲置状态;市场数据同样印证了危机,部分高端GPU价格较峰值下跌超40%,库存积压严重,而技术迭代周期缩短至2-3年,投资回收压力巨大。这些信号与Patterson的观点不谋而合:AI芯片的问题,不是不够强,而是不对路。

这对国内AI芯片行业同样具有重要启示。过去一段时间,我们同样陷入峰值算力竞赛,部分企业盲目对标海外旗舰产品,忽视端侧、边缘侧等真实推理场景。Patterson的提醒告诉我们,弯道超车不应是参数攀比,而是架构换道。在摩尔定律放缓、先进制程受限的背景下,基于RISC-V开放架构,面向推理做深度定制,聚焦存算一体、低功耗设计、场景化优化,反而能走出差异化路线。无论是智能终端、自动驾驶还是工业互联网,市场需要的不是实验室里的顶级算力,而是稳定、高效、低成本的落地能力。

AI的未来毋庸置疑,但算力狂欢终会回归理性。David Patterson这盆冷水,不是阻碍行业前进,而是帮我们卸下冗余的包袱。历史已经证明,真正推动计算革命的,从来不是盲目堆料,而是回归本质的架构创新。从RISC战胜复杂指令集,到DSA领域专用架构崛起,技术演进的规律始终如一:适配场景、解决问题、降低成本,才是长久之道。

打开网易新闻 查看精彩图片

当下的AI芯片行业,需要从“算力崇拜”转向“价值导向”,从追求纸面参数转向落地效率。当狂热褪去,那些真正理解模型需求、扎根场景、坚持架构创新的玩家,才能穿越周期,成为下一代智能时代的硬件基石。这不仅是技术路线的选择,更是行业能否健康可持续发展的关键。