当前位置: 首页 > 科技观察

通用且可解释的AI计算硬件设计将是EDA的下一个革命性技术

时间:2023-03-19 15:22:52 科技观察

杜克大学电气与计算机工程系教授、美国国家科学基金会(NSF)下一代移动网络和边缘计算主任陈怡然美国国家科学基金会新可持续计算校企合作研究中心(ASIC)研究所(雅典娜)(IUCRC主任)和杜克大学计算进化智能中心(DCEI)联合主任。陈怡然,1994年清华大学电子系本科生,2001年获清华大学硕士学位,2001年获清华大学博士学位。2005年从普渡大学获得博士学位。他的研究兴趣包括新型内存和存储系统、机器学习、神经形态计算和移动计算系统。发表论文500余篇,出版专着1部,多次获得各类会议最佳论文奖。他获得的荣誉包括IEEE计算机协会EdwardJ.McCluskey技术成就奖、ACMSIGDA服务奖,并因其对非易失性存储器技术的贡献而被提名为ACM院士。他还是ACM设计自动化特别兴趣小组(SIGDA)的主席。近日,陈奕然教授接受了ACM专访,分享了他对新计算架构、AI计算能效、NSFAI边缘计算中心、电子设计自动化和ACM设计自动化分支、未来技术趋势的看法。AI科技评论在不改变原意的情况下,对采访原文进行了整理。ACM:自从您进入内存和存储系统领域以来,这个领域的发展最让您惊喜的是什么?陈奕然:我认为过去15-20年内存和存储系统领域发生的最激动人心的事情是计算和存储之间的界限正在模糊。现代计算范式的最近革命始于处理大数据的需要,这引发了对大容量存储设备不断增长的需求。由计算单元和存储设备之间的有限带宽造成的瓶颈(通常称为“冯诺依曼瓶颈”)很快出现了。让内存和存储系统“更智能”已经成为减轻系统对内存带宽依赖、加快数据处理速度的流行解决方案,例如近内存计算和内存计算。这是一个很好的例子,说明目标应用程序的转变(即从科学计算到以数据为中心的计算)如何改变了计算机体系结构的设计理念。这种理念的改变激发了各种新的计算产品,例如智能固态驱动器(SSD)、动态随机存取存储器(DRAM)和数据处理单元(DPU),以及许多新兴的内存技术,例如3DXpoint内存(英特尔和美光)。它还导致了一些新的非冯诺依曼架构的出现,例如基于交叉开关的点积引擎,它通过将计算直接映射到计算硬件的拓扑结构来执行向量矩阵乘法。ACM:您最近引用最多的一篇论文是“在深度神经网络中学习结构化稀疏性”,它强调了提高深度神经网络效率的重要性。为什么提高深度神经网络的效率很重要?该领域有哪些有前景的研究方向?论文地址:https://dl.acm.org/doi/pdf/10.5555/3157096.3157329陈怡然:众所周知,现代深度神经网络(DNNs)的高(推理)准确率,这是由于增加的深度和神经网络的宽度,以及更高的计算成本。然而,我们也知道,神经网络的连接权重对神经网络的准确性没有同等的影响。当连接权重接近于零时,很可能会修剪连接(即,将权重设置为零),而不会以任何方式显着影响神经网络的准确性。我们在NeurIPS2016上发表的这篇论文表明,学习存储在内存中的非零权重结构化稀疏神经网络可以保持良好的数据局部性并降低缓存未命中率。从而大大提高了神经网络的计算效率。所提出的技术,结构化稀疏学习(通常称为结构化拼接)及其变体已广泛用于现代高效DNN模型设计,并得到许多人工智能(AI)计算芯片的支持,例如IntelNervana和NVIDIAAmpere。提高DNN的效率至关重要,因为它在很大程度上阻碍了大型DNN模型的扩展,以及大型模型在计算、存储资源和功率预算有限的系统(例如边缘和物联网设备)上的部署。该领域最新的研究趋势是算法和硬件层面创新的结合,例如,设计基于新兴纳米器件的人工智能加速器,用于加速新的或未开发的人工智能模型,如贝叶斯模型、类量子模型、神经符号模型等ACM:最近宣布,您将在下一代网络和边缘计算人工智能研究所领导美国国家科学基金会的雅典娜项目。这个为期五年、耗资2000万美元的Athena项目将涉及多个机构,包括杜克大学、麻省理工学院、普林斯顿大学、耶鲁大学、密歇根大学、威斯康星大学和北卡罗来纳A&T州立大学。Athena项目的目标是什么?陈怡然:我们对雅典娜项目的成立感到非常兴奋,这是一个由美国国家科学基金会和美国国土安全部赞助的边缘计算人工智能旗舰机构。Athena的目标是通过提供前所未有的性能和启用以前不可能的服务来改变未来移动网络系统的设计、运营和服务,同时通过先进的人工智能技术控制复杂性和成本。Athena的研究活动分为四个核心领域:边缘计算系统、计算机系统、网络系统以及服务和应用程序。我们开发的人工智能技术也将为未来移动网络的功能性、异构性、可扩展性和可靠性提供理论和技术基础。雅典娜作为社区的连接点,将培育新兴技术的生态系统,培养具有道德和公平价值观的多元化新一代技术领导者。我们期待雅典娜的成功将重塑移动网络产业的未来,创造新的商业模式和创业机会,改变未来的移动网络研究和产业应用。ACM:设计自动化中最激动人心的趋势是什么?作为ACM设计自动化特别兴趣小组(SIGDA)的主席,您认为该组织在该领域扮演着什么样的角色?YiranChen:过去十年中设计自动化最激动人心的趋势是电子设计自动化(EDA)工具中机器学习技术的广泛采用。由于芯片设计质量在很大程度上取决于芯片设计人员的经验,因此开发智能EDA工具是一个自然的想法,它可以直接学习如何从以前的设计中继承半导体芯片设计方法,而无需再次经历传统的笨重模型。各种机器学习模型已嵌入到最新的EDA流程中,以加速计算试验布线和布局、功率估计、时序分析、参数调整、信号完整性等。机器学习算法也已在芯片的硬件模块中实现,以监控和预测芯片的运行时功耗。例如我们的APOLLO框架(MICRO2021最佳论文奖获得者)。论文地址:https://dl.acm.org/doi/pdf/10.1145/3466752.3480064作为最大的EDA专业协会之一,SIGDA致力于提高全球EDA专业人士和学生的技能和知识。SIGDA每年赞助和组织30多个国际和地区会议,编辑和支持多种期刊和时事通讯,并举办十几场教育和技术活动,包括研讨会、教程、网络研讨会、竞赛、研究论坛和大学演讲。SIGDA与我们的行业合作伙伴合作,还为年轻学生、教师和专业人士提供旅行津贴,以支持他们参加会议。我们还为社区中杰出的研究人员和志愿者颁发了一些奖项。ACM:您所在领域的研究方法在未来几年会产生特别大的影响,举个例子是什么?陈怡然:我相信一个通用的、可解释的AI计算硬件设计流程将是EDA和计算系统研究的下一个革命性技术。在过去的十年中,已经提出了各种硬件设计来加速AI模型的计算。然而,设计人员总是在设计的多功能性和效率之间左右为难,因为需要进行许多硬件定制以适应不断变化的模型的独特结构。另一方面,可解释性一直是确保AI模型的稳健性和推广模型设计的长期挑战。未来的人工智能计算硬件设计可能由与其各自算法相对应的各种可解释硬件模块组成。AI计算硬件的性能是由一个通用的设计流程来保证的。一种可能的解决方案是使用神经符号方法构建可组合的AI模型,并实现与符号算法模块对应的硬件模块。然后可以使用扩展的AutoML流程自动设计目标AI计算硬件,以实现所需的性能,同时保证通用性和可解释性。