一直以来,计算机芯片是驱动 AI 发展的重要基础。现在,AI 也能够加速和优化芯片的设计了。
近日,谷歌 DeepMind 公布了一项名为 AlphaChip 的强化学习方法,可以大幅加速和优化芯片布局设计过程。而且,已被谷歌、联发科等公司采用,该方法的实用性得到了广泛验证。
DeepMind 在博客中写道:“AlphaChip 是首批用于解决实际工程问题的强化学习方法之一。
它可以在数小时内生成超越人类设计或同等水平的芯片布局,而无需耗费数周或数月的人力,其布局已应用于数据中心、手机等产品中的芯片。”
实际上,DeepMind 早在 2020 和 2021 年就分别发布了相关的论文,介绍了这种强化学习方法。
此次公布的是一篇 Nature 论文附录,揭示了更详细的技术细节,以及该方法在过去几年对芯片设计领域的积极影响。
设计芯片布局并非易事。
计算机芯片的结构复杂,它由很多互相连接的功能模块组成,这其中又包含了多层电路元件。而且,这些组件之间还通过极其精细的导线相互连接。
此外,还必须同时满足很多复杂且相互交织的设计限制。
从 AlphaChip 的工作原理来看,其与谷歌的 AI 系统 AlphaGo 与 AlphaZero 等类似。
它将芯片布局设计视为一种游戏,从空白的网格开始,逐一放置电路元件,直至完成所有元件的布局。
遵循强化学习的理念,这个系统将基于最终布局的质量得到奖励。
AlphaChip 通过一种新颖的“基于边缘”的图神经网络,学习互连芯片组件之间的关系。并且,在不同芯片上进行泛化,使其设计能力随着每次布局而不断提升。
AlphaChip 在效率和性能上的表现,均优于传统芯片设计方法。
一般来说,设计一个复杂芯片(如图形处理器)的布局需要耗时约 24 个月,而较简单的芯片也需要数月时间,这意味着巨大的人力和资金成本。
相比之下,AlphaChip 能在几小时内完成芯片布局设计,并且其设计在功耗和性能方面往往优于人工设计。
自 2020 年起,谷歌开始在其张量处理单元(TPU,Tensor Processing Unit)芯片设计中应用 AlphaChip 技术。
TPU 是谷歌专为 AI 加速而设计的定制芯片,为多个生成式 AI 系统提供支持,包括:Gemini 大型语言模型、Imagen 图像生成器和 Veo 视频生成器等。
AlphaChip 在每一代 TPU 的设计中都发挥了重要作用,包括最新的第六代 Trillium 芯片,并不断提高芯片性能并加快设计周期。
AlphaChip 引发了基于 AI 在芯片设计领域的研究热潮。研究人员正在探索将这一技术扩展到芯片设计的其他关键阶段,如逻辑综合、Macro 选择和时序优化等。
目前,虽然新思(Synopsys)和楷登电子(Cadence)等公司已经提供了一些 AI 辅助芯片设计工具,但这些工具通常价格昂贵。
谷歌希望通过开源 AlphaChip,来普及 AI 辅助芯片设计方法。
尽管 AlphaChip 展现出了巨大的潜力,但值得注意的是,目前谷歌和联发科等公司仍然只在有限的芯片模块中使用 AlphaChip,大部分设计工作仍由人类开发者完成。
热门跟贴