当前位置: 首页 > 科技观察

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

时间:2023-03-21 11:56:04 科技观察

谷歌让AI芯片学会“生娃”,下一代TPU让AI自己设计设计一个AI芯片有多难?这么说吧,围棋的复杂度是10360,芯片是102500,大家可以感受下...最多需要几个月。现在,人工智能生产力就在这里!AI自己搞定,竟然6小时设计出一个芯片。最近,这项谷歌研究发表在《自然》杂志上。布局时间缩短数倍。一个小芯片包含数十亿个晶体管,这些晶体管由数千万个逻辑门(标准单元)和数千个存储块(称为宏块)组成。确定它们的位置(称为布局规划)对芯片设计至关重要。因为这直接关系到如何布线,进而影响芯片的处理速度和电源效率。但仅仅放置宏块非常耗时,每次迭代都需要数天或数周才能为更多标准单元腾出空间。△完成人工设计和AI设计芯片的布局需要数周甚至数月(灰色块为宏块)。现在,谷歌的研究人员已经提出了一种具有泛化能力的芯片布局方法。它能够从以前的布局中学习并基于深度强化学习生成新的设计。整体架构如下:由于AI模型需要学习100,000个芯片布局,为了保证速度,研究人员设计了奖励机制,根据线路长度和布线拥堵度的近似成本函数进行计算。具体来说,需要将宏单元和标准单元映射到平面画布上,形成一个拥有数百万至数十亿节点的“芯片网表”。AI模型然后针对功率、性能和面积(PPA)等进行优化,输出一个概率分布。下图展示了基于预训练策略的零样本生成和微调的效果,其中每个小矩形代表一个宏块。在预训练策略中,中间留有空间用于放置标准单元。与其他方法相比,谷歌的新方法大大缩短了设计时间,只需不到6小时即可实现性能优化的布局。谷歌:效果不错。研究团队用它来可视化不同策略下的布局效果。从图中可以看出,微调预训练策略的结果明显好于零样本生成。而且,从不同训练时长的效果对比可以看出,在训练2-12小时的情况下,预训练策略优于零样本生成。在不同大小的数据集上进行测试,研究人员发现随着数据集大小的增加,生成的布局质量和收敛时间的结果会更好。谷歌表示该方法适用于任何类型的芯片。它已被用于生产下一代谷歌TPU(加速器芯片)。