Google DeepMind部门上周公布优化芯片设计的AI模型,正名为AlphaChip。

2020年DeepMind团队在科学期刊《自然Nature》上公布用以设计芯片布局的增强式学习(reinforcement learning)方法,之后也将之在GitHub上开源。上周该团队发布了《自然期刊》补遗,补充说明方法及对芯片设计的影响。Google本周公布该模型正式名称AlphaChip。Google说,自2020年来,该公司已经用AlphaChip模型设计了3代自己的AI加速器TPU,这些芯片让该公司可以根据Google Transformer架构大规模扩大AI模型。

AlphaChip在一个空白芯片上,每次舖设一组电路,直到完成所有组件,然后根据最后电路布局的品质获取反馈。新的边缘式图像神经网络让AlphaChip得以学习互联的芯片组件之间关系,发展出泛化到其他芯片的方法,借此逐渐改善每一代布局设计。

设计TPU布局阶段,经过预训练之后,Google在最新TPU block上执行AlphaChip产生布局设计。由于运用增强式学习,AlphaChip芯片布局能力越来越好也愈快,和人类一样。Google说,近三代TPU,从TPU v5e、TPU v5p到第6代TPU的Trillium,AlphaChip的芯片布局品质更提升,整体布局规划贡献比例也更多,布局的区块(block)由10增加为25,且减少的线长(wirelength)比例,也从3.2%提升为6.2%,证明能加速设计周期,催生更高性能的芯片。

图片来源/Google

AlphaChip除了用于设计如TPU等专用AI加速器,也为Alphabet生成了其他芯片,像是第一块通用型Arm-based数据中心处理器的Google Axion Processor。使用AlphaChips设计的外部单位则包括联发科,它扩展AlphaChip的设计来设计其三星手机使用的5G芯片天玑(Dimensity)系列。

现在AlphaChip涉入的芯片设计阶段也更广,现在波及逻辑合成(logic synthesis)和宏选择(macro selection)。

为了方便开发人员试用AlphaChip,DeepMind也公布预训练的检查点(checkpoint)作为共享资源。