基于参数化量子电路的机器学习算法是近期在嘈杂的量子计算机上应用的主要候选者。在这个方向上,已经引入并广泛研究了各种类型的量子机器学习模型。然而,我们对这些模型如何相互比较以及与经典模型进行比较的理解仍然有限。最近,奥地利因斯布鲁克大学的一个研究小组确定了一个构造性框架,该框架捕获了所有参数化量子电路的标准模型:线性量子模型。研究人员展示了如何使用量子信息论中的工具有效地将数据重新上传电路映射到量子希尔伯特空间中线性模型的更简单图像中。此外,还根据量子比特数和需要学习的数据量分析了这些模型的实验相关资源需求。根据经典机器学习的最新结果,表明线性量子模型必须使用比数据重新上传模型更多的量子比特来解决某些学习任务,而核方法也需要更多的数据点。这些发现提供了对量子机器学习模型的更全面理解,以及对不同模型与NISQ约束的兼容性的见解。该研究题为“Quantummachinelearningbeyondkernelmethods”,于2023年1月31日发表在《Nature Communications》。论文链接:https://www.nature.com/articles/s41467-023-36159-y中在嘈杂的中级量子(NISQ)时代,已经提出了几种方法来构建有用的量子算法。大多数这些方法都涉及量子电路Ansatz的规范,以经典方式优化以解决特定的计算任务。除了变分量子本征求解器和化学中的量子近似优化算法的变体之外,基于这种参数化量子电路的机器学习方法是产生量子优势的最有希望的实际应用之一。核方法是一类模式识别算法。其目的是寻找和学习一组数据中的相互关系。核方法是解决非线性模式分析问题的有效方法。其核心思想是:首先将原始数据通过某种非线性映射嵌入到一个合适的高维特征空间中;然后,将通用线性学习器用于这种新的空间分析和处理模式。通过利用一些量子模型和经典机器学习的核方法之间的联系,以前的工作在这个方向上取得了长足的进步。许多量子模型确实通过在高维希尔伯特空间中编码数据来运行,并仅使用在此特征空间中评估的内积对数据的属性进行建模。这也是内核方法的工作原理。基于这种相似性,给定的量子编码可用于定义两种类型的模型:(a)显式量子模型,其中编码数据点根据指定其标签的变分可观测值进行测量;或(b)隐式核模型,其中编码数据点的加权内积用于分配标签。在量子机器学习文献中,很多重点都放在隐式模型上。图1:这项工作中研究的量子机器学习模型。(来源:论文)最近,所谓的数据重新上传模型取得了进展。数据重新上传模型可以看作是显式模型的推广。然而,这种泛化也打破了与隐式模型的对应关系,因为给定的数据点x不再对应于固定代码点ρ(x)。数据重新上传模型严格来说比显式模型更通用,并且它们与内核模型范式不兼容。到目前为止,在核方法的保证下,数据重新上传模型是否能获得一些优势,仍然是一个悬而未决的问题。在这项工作中,研究人员为显式、隐式和数据重新上传量子模型引入了一个统一的框架。图2:量子机器学习中的模型族。(来源:论文)量子学习模型的统一框架首先回顾线性量子模型的概念,并根据量子特征空间中定义的线性模型解释显式和隐式模型。然后我们介绍数据重新上传模型,并表明尽管定义为显式模型的概括,但它们也可以通过更大的希尔伯特空间中的线性模型来实现。线性量子模型下图给出了一个说明性结构,以可视化如何实现从数据重新上传到显式模型的映射。图3:近似于数据重新上传电路的说明性显式模型。(来源:论文)这种结构背后的总体思想是将输入数据x编码到一个辅助量子位中,达到有限精度,然后可以重复使用它来使用数据独立的单例来近似数据编码门。现在转向主要结构,导致数据重新上传和显式模型之间的精确映射。在这里,依靠与先前结构类似的想法,输入数据在辅助量子位上编码,然后使用数据无关操作在工作量子位上实现编码门。这里的不同之处在于,使用门传送,一种基于测量的量子计算,您可以直接在辅助量子位上实现编码门,并在需要时将它们传送回(通过纠缠测量)到工作量子位。图4:使用门隐形传态从数据重新上传模型到等效显式模型的精确映射。(来源:论文)研究人员证明,线性量子模型不仅可以描述显式和隐式模型,还可以描述数据重新上传电路。更具体地说,任何假设类的数据重新上传模型都可以映射到等效类的显式模型,即具有受限可观察量族的线性模型。接下来,研究人员更严格地分析了显式和数据重新上传模型相对于隐式模型的优势。在该示例中,解决学习任务的量子模型的效率通过量子比特数和实现非平凡预期损失所需的训练集大小来量化。感兴趣的学习任务是学习奇偶函数。图5:学习分离。(来源:论文)超越核方法的量子优势量子机器学习的一个主要挑战是证明这项工作中讨论的量子方法可以实现优于(标准)经典方法的学习优势。在这方面的研究中,Huang等人。(https://www.nature.com/articles/s41467-021-22539-9)的GoogleQuantumAI提出通过(显式)量子学习任务来研究目标函数本身以生成模型。与Huang等人类似,研究人员使用来自fashion-MNIST数据集的输入数据进行回归任务,每个示例都是28x28灰度图像。图6:显式、隐式和经典模型在“量子剪裁”学习任务上的回归性能。(来源:论文)观察:隐式模型系统地实现比显式模型更低的训练损失。特别是对于非正则化损失,隐式模型实现了0的训练损失。另一方面,关于代表预期损失的测试损失,从n=7量子位开始有明显的分离,经典模型开始具有竞争力隐式模型的性能,而显式模型明显优于两者。这表明不应仅通过将经典模型与量子核方法进行比较来评估量子优势的存在,因为显式(或数据重新上传)模型也可以隐藏更好的学习性能。这些结果使我们对量子机器学习领域有了更全面的了解,并拓宽了我们对模型类型的看法,以在NISQ机制中实现实际学习优势。研究人员认为证明不同量子模型之间的指数学习分离的学习任务是基于奇偶函数的,这不是机器学习中具有实际意义的一类概念。然而,下界结果也可以扩展到其他具有大维概念类(即由许多正交函数组成)的学习任务。量子核方法必然需要许多与该维度成线性比例的数据点,而数据重新上传电路的灵活性和显式模型的有限表达能力可以节省大量资源,正如我们在结果中所展示的那样。探索如何以及何时可以针对手头的机器学习任务定制这些模型仍然是一个有趣的研究方向。
