近日,美国圣母大学博士后蒋维文、IBM研究院施一宇教授和熊进军博士的研究首次实现了机器学习和量子计算协作设计框架QuantumFlow为在量子计算机上实现神经网络铺平了道路。QuantumFlow框架自动将神经网络部署到IBM量子计算机。原文链接:https://arxiv.org/pdf/2006.14815.pdf神经网络加速迎来新玩家量子计算机是一种使用量子逻辑进行通用计算、使用量子比特进行数据存储、使用量子算法进行数据处理运算的设备。量子计算研究可以追溯到1860年代,2016年第一台可编程量子计算机诞生。IBM在2019年1月展示了商用量子计算机IBMQ,并预测其将在2020年代获得量子优势:针对实际应用场景,展示量子计算超越经典计算的能力。图1:量子霸权之路:从1960年代的量子科学,到2016年的量子准备就绪,再到2020年代的量子霸权,以使用量子计算机解决实际问题(来源:IBM)图2:神经网络硬件加速器迎新成员:量子计算机深度神经网络是当前计算应用中发展最快、应用最广泛的机器学习算法。如图2所示,深度神经网络加速器在通用处理器(CPU、GPU)和专用加速器(FPGA、ASIC)上得到广泛研究。但随着应用的不断复杂化和网络结构的不断扩展,存储性能瓶颈也逐渐凸显。在传统计算平台上,N个数字位只能表示1个N位数据,但在量子计算中,M个量子位可以同时表示2^M个数据,同时可以对这些数据进行操作。量子计算机具有如此强大的存储和计算能力,很有可能打破神经网络在传统计算平台上的性能瓶颈,获得量子优势。首个量子计算协同设计框架,让你的神经网络飞起来如何在深度学习领域获得量子优势,仍然面临诸多挑战。第一个障碍是缺乏用于协同设计神经网络和量子电路的自动化工具。现有工作要么尝试将为传统计算系统设计的神经网络直接映射到量子计算机上,要么直接设计量子神经网络。然而,这样的独立设计很难发挥量子计算机的优势(例如,实数乘法会引入过多的量子比特,带来巨大的开销)。根本原因是缺乏协同设计工具,这项工作通过提出第一个神经网络/量子计算协同设计框架QuantumFlow填补了这一空白。图3QuantumFlow协同设计框架如图3所示,QuantumFlow框架包括四个组件:网络模型设计器QF-Net:它使用随机变量来表示输入的真实数据,可以自然地使用量子态来表示,实现对变量的随机操作.设计者提出了实现量子电路的基本操作,包括向量的线性和非线性操作以及批量归一化操作。QuantumCircuitDesignerQF-Circ:针对QF-Net中的每一个操作,设计一个对应的量子电路实现。ForwardBackpropagatorQF-FB:在传统计算平台上提供高效的前向和反向传播实现,支持高效的QF-Net模型训练。网络映射QF-Map:根据依赖QF-FB训练得到的QF-Net模型,首先进行网络-电路映射,建立QF-Net对应的量子电路QF-Circ;然后将执行虚拟-物理量子比特映射,并将QF-Net映射到量子计算机。在执行虚拟到物理量子比特映射以提高模型精度时,将考虑量子计算机的错误率。在传统计算机上基于QF-FB的仿真结果证明了QF-Net的有效性。如图4所示,为量子计算设计的QF-Net比具有相同结构的经典计算系统的多层感知器MLP(C)具有更高的精度。图4:QF-Net在MNIST数据集的子集上实现了最高准确率:{3,6}、{3,8}、{1,3,6},QF-NetwithBatchNormalization(w/BN)数字3和6的识别率达到97.01%,比最新为量子计算设计的FFNN网络高出14.55%。图5显示了二元分类的示例。QuantumFlow通过QF-FB训练得到的网络如图5(b)所示。根据QF-Map,首先将QF-Net映射到QF-Circ,如图5(C)所示。然后,根据IBM量子计算机ibmq_essex错误率(图5(d)),QF-Map将QF-Net映射到物理量子比特上,并对100组输入数据进行分类。在量子计算机上获得的结果如图5(h)所示。图5:二进制分类示例,在IBM的5量子比特量子计算机“ibmq_essex”上实现了82%的准确率。图5(e)显示了在传统计算系统上使用QF-FB获得的标准结果,图5(f)显示了使用IBMQiskitAer模拟的QF-FB结果,准确率为98%。图5(g)为使用IBMQikist内置编译器代替QF-Map得到的结果,正确率仅为68%。最后,使用QF-Map将准确率提高到82%。这个实验证明了量子计算实现神经网络的可能性。虽然IBM量子计算机的错误率在10^?2数量级(相比之下数字电路的错误率是10^?15),但通过QuantumFlowComputing系统设计的神经网络量子网络已经能够高效地排序和处理数据。结果证明了QuantumFlow的有效性。QuantumFlow将于近期开源,详情请访问https://wjiang.nd.edu/categories/qf/。关于作者姜维文,该论文的第一作者,目前是美国圣母大学的博士后研究助理。2019年获重庆大学博士学位。2017-2019年在美国匹兹堡大学电气与计算机工程系参与研究工作。博士期间,蒋维文在国际会议和主要期刊发表研究论文50余篇,其中IEEE/ACM期刊论文10余篇。他在硬件加速和神经网络结构方面的合作研究获得了DAC'19、CODES+ISSS'19和ASP-DAC'20最佳论文提名。他在神经网络和并行系统方面的研究工作引起了业界的广泛关注,获得了美国国家科学基金会和国际自然科学联合会的研究经费,并与Facebook等公司开展了合作和Edgecortix公司。合作研究,并在过去一年中获得了超过25万的研究资助资金。姜伟文获得2015年“NVMSA”、2017年“ICCD”两项最佳论文奖,2016年获得“ASP-DAC”、2019年“DAC”、2019年“CODES+ISSS”、“ASP-DAC”获得四项最佳论文提名。深度学习的进步在很大程度上取决于算力,传统硬件算力的增长已经跟不上超级人工智能的需求。如果神经网络能够无缝迁移到量子计算机上,就像数据从CPU迁移到GPU一样,将是人工智能科学家的福音。
