当前位置: 首页 > 科技观察

量子CNN对数据集的测试精度很高,但也有局限性

时间:2023-03-21 23:51:48 科技观察

在10月4日揭晓的2022年诺贝尔奖中,AlainAspect、JohnF三位科学家的学术奖项引起了量子领域的关注和讨论来自外部世界的研究。其中,以量子计算为代表的研究投入近年来迎来大幅增长,人们开始从安全、网络通信等领域出发,探索利用量子方法颠覆现有经典计算技术。有研究者认为,量子计算的核心在于“通过计算成本更低的技术解决经典问题”。随着近年来深度学习和量子计算研究的并行发展,许多研究者也开始关注这两个领域。交集:量子深度学习。近日,XboxGameStudioRare的Insights总监HollyEmblem在一篇新文章《量子深度学习:量子卷积神经网络快速指南》中介绍了量子深度学习的现有研究和应用,重点介绍了量子卷。乘积神经网络(QCNN)与经典计算方法相比的优势和局限性。1经典计算与量子计算的区别首先介绍一个重要的概念,关于经典计算与量子计算的区别。当程序在经典计算机上执行时,编译器将程序语句转换为二进制位;在量子计算中,与经典计算机上的位可以随时表示1或0的状态不同,量子位可以处于两种状态。在状态之间“徘徊”,量子位仅在被测量时坍缩到其两个基态之一,1或0。这种称为叠加的属性在量子计算任务中起着至关重要的作用。通过叠加,量子计算机可以并行执行任务,而无需完全并行的架构或GPU。这样做的原因是,当每个叠加状态对应不同的值时,如果对叠加状态进行运算,则会同时对所有状态进行运算。这是量子态叠加的一个例子:量子态的叠加是指数的,a和b指的是概率大小,它给出了一旦执行测量就被投射到一个状态的概率。其中,叠加量子态是利用量子逻辑门创建的。图例:位于芬兰埃斯波的Ragsxl的IQM量子计算机2纠缠和贝尔态叠加在量子物理学中非常重要,另一个关键原理是纠缠。纠缠是以某种方式在两个或多个粒子之间产生或引起相互作用的行为,这意味着这些粒子的量子态不能再相互独立地描述,即使相隔很远。当粒子发生纠缠时,如果测量一个粒子,则立即以相反的状态(这些粒子没有局部状态)测量与之纠缠的另一个粒子。随着对量子比特和纠缠的理解的发展,贝尔态被讨论,量子比特的最大纠缠态如下所示:|00?→β→1√2(|00?+|11?)=|β00?,|01?→β→1√2(|01?+|10?)=|β01?|10?→β→1√2(|00?-|11?)=|β10?|11?→β→1√2(|01?-|10?)=|β11?UsingaquantumcircuittocreateaBellstate:Legend:Perry'sTempleofQuantumComputing'sBellstatecircuit在所示的贝尔状态电路中,它接受量子位输入并应用Hadamard门和CNOT门创建一个纠缠的贝尔状态。目前,贝尔态已被用于开发一系列量子计算应用程序;其中,Hegazy、Bahaa-Eldin和Dakroury提出可以利用贝尔状态和超密集编码实现“无条件安全”。3卷积神经网络和量子卷积神经网络Fran?oisChollet在Python深度学习中指出,卷积神经网络(CNNs)在图像分类等任务中很受欢迎,因为它们可以建立模式层次结构,比如先表示线,然后表示边这些线,这使CNN能够建立在层之间的信息上并表示复杂的视觉数据。CNN具有由滤波器组成的卷积层,这些滤波器在输入上“滑动”并生成“特征图”,允许检测输入中的模式。同时,CNN可以使用池化层来减小特征图的大小,从而减少学习所需的资源。图注:在Cecbur展示的卷积神经网络定义了经典的CNN之后,我们可以探索量子CNN(quantumconvolutionalneuralnetwork,QCNN)如何利用这些传统方法并对其进行扩展。根据Garg和Ramakrishnan的说法,开发量子神经网络的一种常见方法是开发一种“混合”方法,该方法引入了所谓的“量子卷积层”,这是基于随机量子电路的转换,在经典CNN中用作添加-出现。由YanxuanLü等人开发的混合QCNN。在MNIST手写数字数据集上进行测试如下图所示:在论文“AQuantumConvolutionalNeuralNetworkforImageClassification”中,研究人员采用量子电路和纠缠作为经典模型部分,将输入图像生成预测作为输出。在这种方法中,QCNN将图像数据作为输入并将其编码为量子态|x>,然后使用量子卷积和池化层对其进行转换以提取特征;最后,对使用强纠缠电路的全连接网络层进行分类,并根据测量结果进行预测。其中,优化由随机梯度下降(SGD)处理,可用于减少训练数据标签和QCNN预测标签之间的差异。着眼于量子电路,量子卷积层中使用的门如下图所示,其中包括旋转算子和CNOT门。测量池化层中的量子位子集决定是否将单量子位门应用于相邻位:全连接层由“通用单量子位门”和产生纠缠态的CNOT门组成,以将QCNN与其他方法进行比较,研究人员将MNIST数据集与模拟QCNN结合使用。按照典型的方法,我们创建了一个训练/测试数据集,并开发了一个由以下层组成的QCNN:2个量子卷积层2个量子池化层1个量子全连接层QCNN在数据集上进行了测试数据集达到了96.65%的准确率,并且在对来自PaperswithCode的数据进行测试后,该数据集在经典CNN中达到了99.91%的最高准确率分数。需要注意的是,本实验仅对两类MNIST数据集进行了分类,这意味着无法全面比较其他MNIST模型的性能。4可行性评估和总结尽管研究人员已经在QCNN中开发了方法,但目前该领域的一个关键问题是实现理论模型所需的硬件尚不存在。此外,混合方法还面临着在经典CNN计算中同时引入量子演化层的测试方法的挑战。如果我们认为量子计算的优势之一是它可以解决“用较少计算成本的技术解决经典棘手问题”,那么这些解决方案的一个重要方面在于“量子加速”。一些研究人员认为,与经典实现相比,量子机器学习的优势在于量子算法可以预期具有多项式甚至指数加速时间。然而,上面显示的QCNN方法的一个局限性是,当我们需要一种算法(如QCNN)能够一致地解码/编码经典数据和测量时,“量子加速”增益是有限的;关于最好的编码/解码和协议的信息并不多,这些协议需要最小的测量值才能从“量子加速”中受益。纠缠已被证明是量子机器学习的一个重要属性。这篇论文中提到的关于使用强纠缠电路的QCNN的研究可以产生纠缠态作为其全连接层,使模型能够进行预测。不仅如此,纠缠还被用于辅助其他领域的深度学习模型,例如使用纠缠从图像中提取重要特征,在数据集中使用纠缠可能意味着模型可以从比之前预期更小的训练数据集中学习。等。本文提供了经典深度学习方法和量子深度学习方法的比较,并讨论了利用量子层(包括强纠缠电路)生成预测的QCNN,分析了量子深度学习的优势和局限性,并介绍了机器学习中的纠缠。更普遍的应用,这也意味着我们可以开始思考量子深度学习的下一步,尤其是QCNN在更多领域的应用。此外,量子硬件也在不断完善,PsiQuantum等公司提出了开发百万量子比特的量子处理器的目标。随着深度学习和量子计算领域的研究不断深入,我们可以期待看到量子深度学习的进一步发展。