推广 热搜: 京东  联通  iphone11  摄像头  企业存储  XSKY  京东智能采购  iPhone  网络安全  自动驾驶 

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

   日期:2021-06-12     来源:量子位    作者:itcg    浏览:376    我要评论    
导读:    本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。 设计�

   

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

设计一块AI芯片有多难?

这么说吧,围棋的复杂度10360,而芯片则是102500,你感受一下……

政府采购

△围棋的复杂度

一般来说,工程师们设计一块芯片,少则需要几周,多则好几个月。

现在,AI生产力来了!

AI自己动手,竟然用6Сʱ就设计出一块芯片。

最近,这项谷歌的研究登上了Nature杂志。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计布局时间缩短数倍

小小的一块芯片包括了数十亿个晶体管,由它们组成的数千万个逻辑门就是标准单元,此外还有数千个存储块,称为宏块。

确定它们的位置,也就是布局规划,对芯片设计至关重要。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

因为这直接关系到如何布线,进而影响着芯片的处理速度和电源效率。

但是,光是放置宏块这一步就非常耗时,为了给标准单元留出更多空间,每一次迭代都需要几天或几周时间。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

△人类设计和AI设计芯片的平面图(灰色块为宏块)

完成整个布局,则要花费数周甚至数月。

现在,谷歌的研究人员提出了一种具有泛化能力的芯片布局方法。

它能够基于深度强化学习,从之前的布局中进行学习,然后生成新的设计方案。整体架构是这样的:

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

由于AI模型需要学习10万个芯片布局,为了保证速度,研究人员设计了一种奖励机制,基于线路长度和布线拥塞的近似代价函数进行计算。

谷歌让AI芯片学会“下崽”,下一代TPU就让AI自己设计

具体来说,需要将宏和标准单元映射到一个平面画布上,形成具有数百万到数十亿节点的「芯片网表」。

然后,AI模型会对功率、性能和面积(PPA) 等进行优化,并且输出概率分布。

 

 
反对 0举报 0 收藏 0 打赏 0评论 0
 
更多>同类资讯

头条阅读
推荐图文
相关资讯
网站首页  |  物流配送  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅  |  违规举报  |  京ICP备14047533号-2
Processed in 0.033 second(s), 11 queries, Memory 0.46 M