当前位置: 首页 > 科技观察

量子计算与人工智能有什么关系

时间:2023-03-23 11:03:56 科技观察

经过数十年的研究,人工智能(AI)正在成为主要的行业趋势之一。从与Alexa和Siri的对话,到Waymo(谷歌)和特斯拉的自动驾驶汽车,再到OpenAI的GPT-3像人类一样写散文,再到DeepMind(谷歌)的AlphaZero击败人类围棋大师,人工智能现在已经足够成熟。解决现实生活中的问题,通常比人类更快更好。在科技行业的其他地方,有远见的人正在努力开发量子计算机,试图利用量子物理学的特性来比当今的计算机更快地执行计算。说到这里,很多人可能会疑惑:量子计算和人工智能到底有什么关系?算法复杂性是隐藏的敌人算法复杂性是一个有点晦涩的数学概念,它汇集了人工智能研究人员和量子计算先驱所做的一切。工作联系在一起。计算复杂性理论是一个跨越数学和计算机科学的领域,侧重于根据空间(内存)和时间等资源使用对计算问题进行分类。本质上,计算问题是可以由计算机按照算法中定义的数学步骤机械地解决的任务。例如,考虑对列表中的数字进行排序的问题。一种可能的算法称为“选择排序”,包括从列表的未排序部分(最初是全部)中重复查找最小元素(按升序)并将其放在开头。该算法在运行时有效地维护了原始列表的两个子列表:已经排序的部分和剩余的未排序部分。这个过程经过几次之后,结果就是一个从小到大排序的列表。就时间复杂度而言,这表示为N2的复杂度,其中N表示列表中元素的大小或数量。数学家们想出了更高效但更复杂的排序算法,例如“CubeSort”或“TimSort”,这两种算法的复杂度都是Nxlog(N)。对包含100个元素的列表进行排序对于今天的计算机来说是一项简单的任务,但对包含十亿条记录的列表进行排序可能并不那么简单。因此,时间复杂度(或算法中相对于输入问题规模的步数)非常重要。为了更快地解决问题,使用更快的计算机,或者找到需要更少操作的更高效的算法,这就是更低时间复杂度的意思。然而,很明显,对于指数复杂度的问题(例如N2或2N),数学对你不利,而对于更大的问题规模,简单地使用更快的计算机是不切实际的。而这正是人工智能领域正在发生的事情。人工智能是一个需要解决的高度复杂的问题首先,我们将了解当今人工智能(AI)系统所使用的人工神经网络的计算复杂性。这些数学模型的灵感来自构成动物大脑的生物神经网络。他们通过查看许多示例“学习”识别或分类输入数据。它们是相互连接的节点或神经元的集合,结合了一个激活函数,该函数根据“输入层”中呈现的数据和互连中的权重确定输出。为了调整互连中的权重以使“输出”有用或正确,可以通过将网络暴露给许多数据示例并“反向传播”输出损失来“训练”网络。对于一个有N个输入,M个隐藏层的神经网络,其中第i个隐藏层包含mi个隐藏神经元和k个输出神经元,调整所有神经元权重的算法(称为反向传播算法)将具有时间复杂度:总结,流行的OpenAI的GPT-3模型已经能够用1750亿个参数(或神经元)写出像人类一样流畅的原始散文。这个AI模型有数十亿M,目前需要几个月的时间来训练,即使是在大型云数据中心的强大服务器计算机也是如此。此外,人工智能模型的规模将继续增长,因此随着时间的推移,情况会变得更糟。量子计算来拯救?量子计算机是使用量子物理特性(特别是叠加和纠缠)来存储数据和执行计算的机器。它们有望同时执行数十亿次操作,为高度复杂的问题(包括人工智能)提供非常可观的加速。经典计算机以位(“二进制数字”的缩写)传输信息,而量子计算机使用量子位(“量子位”的缩写)。与经典比特一样,量子比特最终必须以1或0的形式传输信息,但它们的特殊之处在于它们可以同时表示1和0。据说一个量子位具有概率分布,例如,它有70%的概率为1,有30%的概率为0。这就是量子计算机如此特别的原因。量子计算机利用了量子力学的两个基本属性:叠加和纠缠。当一个量子位同时为1和0时,我们称它处于叠加状态。叠加是系统同时处于多个状态,而测量时只假定一个状态的情况的总称。如果我们假设一枚硬币是一个量子物体,那么当抛硬币时,就会发生叠加:硬币只有正面或反面的概率。一旦硬币落地,我们就会测量它,然后知道它是正面还是反面。同样,只有当我们测量电子的自旋(类似于掉在地上的硬币)时,我们才能知道电子处于什么状态以及它是1还是0。叠加的量子粒子只有在我们有多个粒子时才有用.这将我们带到了量子力学的第二个基本原理:纠缠。两个(或多个)纠缠粒子无法单独描述,它们的性质完全相互依赖。因此,纠缠的量子比特可以相互影响。一个量子位(1或0)的概率分布取决于系统中所有其他量子位的概率分布。正因为如此,添加到系统中的每个新量子比特都会使计算机可以分析的状态数量增加一倍。这种计算机能力的指数增长与经典计算形成鲜明对比,经典计算仅随每个新位线性扩展。理论上,纠缠的量子位可以同时执行数十亿次操作。显然,此功能将为复杂度在N2、2N或NN范围内的任何算法提供显着的加速。为量子驱动的AI做好准备由于量子计算的巨大潜力,虽然硬件团队继续致力于使这些系统成为现实(迄今为止最大的是IBM的127-QubitEagle系统),但软件研究人员已经在研究能够可以在密码学、化学、材料科学、系统优化和机器学习/人工智能等领域利用这种“同时计算”能力的新算法。人们相信Shor的因式分解量子算法将提供比经典计算机更高的指数级加速,这对当前的密码算法构成了风险。最有趣的是,人们相信量子线性代数将提供多项式加速,这将大大提高我们的人工神经网络的性能。谷歌推出了TensorFlowQuantum,这是一种用于量子机器学习的软件框架,可以快速构建混合量子-经典机器学习模型的原型。同样是量子计算领域的领导者,IBM最近宣布它在量子机器学习中找到了量子优势的“数学证明”。然而,虽然像IBM和谷歌这样的公司是垂直整合的(因此同时开发硬件系统和软件算法),但也有一群非常有趣的量子软件初创公司,包括Zapata、Riverlane、1Qbit,在某种程度上,Quantinuum(它CambridgeQuantumComputing与Honeywell合并并更名后,不再是一家纯粹的软件公司),仅举几例。随着量子硬件越来越强大,量子机器学习算法越来越完善,量子计算很可能在AI芯片市场占据相当大的份额。