据谷歌人工智能研究负责人杰夫·迪恩介绍,谷歌正试图通过人工智能程序推进特殊芯片的内部开发,以加快其软件的运行速度。“我们在内部将人工智能用于一系列芯片设计项目,”迪恩在旧金山举行的年度国际固态电路会议技术研讨会上发表主题演讲后接受ZDNet采访时说。在过去的几年里,谷歌开发了一系列AI硬件——张量处理单元(TPU芯片),用于在服务器计算机中处理AI。使用人工智能设计芯片是一个良性循环:人工智能让芯片更好,改进的芯片增强人工智能算法,等等。在他的主题演讲中,Dean向与会者展示了如何使用机器学习程序来确定计算机芯片的电路布局,从而使设计的敏锐度与人类芯片设计师相当或更高。当涉及到“布线”任务时,芯片设计人员通常使用软件来确定芯片中电路的布局,这有点像建筑物的平面图。为了找到满足多个目标的最优布局,需要考虑很多因素,包括提供芯片性能,同时还要避免不必要的复杂性,这可能会增加芯片制造成本。这种平衡需要大量的人类启发式思维,才能以最佳方式进行设计。现在,人工智能算法也可以用这种启发式思维来设计。例如,Dean表示,深度学习神经网络只需要24小时就可以解决问题,而人为设计需要6到8周,而且前者的解决方案更好。这减少了整体芯片布线数量,从而提高了效率。Dean告诉与会者,用于解决问题的机器学习模型仅在24小时内就提出了芯片设计,而人类设计师需要八周才能完成。这种深度学习程序类似于谷歌DeepMind部门为征服围棋而开发的AlphaZero程序,也是强化学习的一种。为了实现这个目标,程序会尝试各种步骤,看看哪些步骤会带来更好的结果,除了不下棋,而是设计芯片中的最佳电路布局。与围棋不同,这个解决方案的“余量”(线数)要大得多,并且如上所述必须满足许多要求,而不仅仅是赢得比赛。Dean说,这项内部研究处于理解深度学习技术的早期阶段。“我们正在与我们的设计师进行试验,以了解如何在我们的工作流程中开始使用该程序。我们还试图了解该程序的实用性以及可以改进的地方。”谷歌涉足AI设计之际,正值芯片生产之际。这次复兴旨在让机器学习在各种尺寸的专用芯片上更快。一些机器学习科学家认为,专门的人工智能硬件可以带来更大、更高效的机器学习软件项目。Dean说,即使谷歌扩大其人工智能设计项目,仍然会有大量人工智能硬件初创公司,如CerebrasSystems和Graphcore,为市场带来多样性并迅速增长。并说品种会很有趣。“我不确定这些初创公司是否会在市场上生存下来,但这很有趣,因为他们中的很多人都采用了截然不同的设计方法。一些加速模型足够小,可以用于片上SRAM。”这意味着,机器学习模型可以非常小并且不需要外部存储器。“如果你的模型可以用在SRAM中,它会变得非常高效,但如果不适合,那么它就不是你应该选择的芯片。”谷歌表示,这个机器学习程序创造了许多连人类设计师都没有想到的新奇事物。电路设计。当被问及这些芯片是否适合某些标准设计时,Dean暗示多样化是可能的,至少目前是这样。“我确实认为每个人使用的方法都会有所不同,因为对机器学习的研究呈爆炸式增长,机器学习正被用来解决各种问题,当有这么多选择时,你不会”不想只是盯着它看。一个选择,但想要五六个——不是一千个,而是五六个不同的设计点。”Dean补充说:“知道哪些设计方法会脱颖而出很有趣。展望未来,无论是可以解决很多问题的通用方法,还是加速某个方面的专门方法。”谈到谷歌在TPU之外的举措,Dean表示谷歌正在尝试越来越多的专用芯片。当被问及谷歌的AI硬件是否可能超越其现有产品时,Dean回答说:“哦,是的。”“毫无疑问,机器学习在谷歌产品中的应用越来越广泛。这些产品既包括基于数据中心的服务,也包括手机上的许多产品。”Dean指出谷歌翻译是一个已经摆脱了复杂性的程序,现在即使在飞行模式下也支持七十种不同的语言。可以在手机上使用。Dean指出,谷歌已经扩展了其AI芯片系列。例如,EdgeTPU涵盖了“不同的设计点”,包括低功耗应用程序,以及数据中心核心的高性能应用程序。当被问及谷歌是否会进一步扩大多样性时,迪恩回答说:“我认为会的。”Dean说,“即使在非数据中心领域,你也会看到不同的大功率环境——比如自动驾驶汽车——之间的区别,它不一定是1瓦,可能是50或100瓦。因此,对于这种环境,您需要一种不同于手机环境的方法。”低功耗应用程序,可以在不向云端发送任何数据的情况下执行一些人工智能处理。如果启用了AI,此类传感器可以评估是否正在收集任何数据(例如来自相机的数据),并将这些单独的数据点发送回云端进行分析。
