在 GTC 会场,观众座无虚席,两位在计算领域具有重要影响力的嘉宾,NVIDIA 首席科学家 Bill Dally,以及 Google DeepMind 与 Google Research 首席科学家 Jeff Dean 登台对话。他们的工作深刻塑造了大规模机器学习的发展轨迹。
这场对话与其说是传统座谈,不如说是一场深度学习的“即兴演奏会”,两位深入探讨了 AI 模型的演进方向,以及为何硬件架构如今已与 AI 的进步密不可分。
Bill Dally 与 Jeff Dean
Dean 开场时回顾了模型能力的快速跃迁,尤其在如“数学和编程”等具备“可验证奖励”的领域。曾经令模型束手无策的任务,如今已能可靠地执行;基于智能体的工作流甚至能在数小时乃至数天内几乎无需人工干预的情况下自主运行。他强调,这一转变正在重塑 AI 系统的本质,使其从被动响应提示的工具,转变为“在后台持续运作的智能体”。
对此,Dally 表示,这种演进将延迟问题推至聚光灯下。推理速度成为智能体在大规模环境中推理、规划与迭代的首要设计约束。他解释道,当前大部分延迟并非来自计算本身,而是源于通信。每一层之间的数据传递、每一次片外访问、每比特在导线上的移动,都会带来时间与能耗成本。NVIDIA 的应对策略是推动架构向 Dally 所称的“光速”设计迈进:最大限度减少路由成本、消除排队等待,并缩短数据必须传输的物理距离。
展望未来,两位演讲者不约而同地聚焦于同一个关键词:协同设计。突破性的进展将来自机器学习研究人员与系统架构师之间的紧密反馈循环。正如 Dean 所言,有时你在硅片上加入一个小型实验性功能,就可能带来巨大回报,硬件性能可因此实现“10 到 20 倍”的提升。
以上为摘要内容,点击链接阅读完整内容:NVIDIA GTC 2026:实时了解 AI 的未来发展 | NVIDIA 英伟达博客
热门跟贴