刚刚,IBM宣布在量子计算领域达到了一个新的里程碑,目前最高量子体积为64。其量子计算机的性能与去年相比翻了一番。就在几个月前,霍尼韦尔还声称开发出了世界上最强大的量子计算机。此次,IBM公布的最新进展直接与霍尼韦尔对峙,量子计算领域的竞争逐渐升温。霍尼韦尔放狠话,IBM不在乎,量子计算谁最强早在今年3月,霍尼韦尔就“放狠话”:未来三个月,我们将推出全球最高性能的量子计算机。也许谷歌、IBM和英特尔都没有想到,6月18日会出现这样一个强大的对手。霍尼韦尔宣布:“我们已经建造了世界上最强大的量子计算机。”其最新的量子计算机取得了64分的量子体积分数,是IBM和谷歌竞争对手的两倍。2019年,IBM的量子体积达到了32个。霍尼韦尔的“最好”并不是自吹自擂,而是基于IBM的量子计算机基准测试。“量子体积”的概念最早是由IBM提出的。量子体积是用来衡量量子计算机性能的指标,而不仅仅是用量子比特(QuantumBit)的数量作为衡量标准。该指标旨在摆脱行业原有的相对过时的评价方式。量子体积受量子比特数、门和测量误差、设备交叉通信以及设备连接性和电路编译效率的影响。量子体积越大,量子计算机越强大,处理时空复杂性的能力也越好。量子体积可以更全面地衡量量子计算机的能力,包括衡量可以解决的问题的复杂性。要想更好地理解IBM和霍尼韦尔的量子计算优缺点,首先要知道他们走的是两条完全不同的技术路线。三大战吕布:超导量子计算VS离子阱目前,量子计算主要分为固态器件和光路两大类。Google、IBM、Intel属于“固态设备路线”。霍尼韦尔的离子阱所走的技术路线属于“光器件派”。光路离子阱在相干时间上具有优势,但可控性较弱,难以与经典计算兼容。目前,全球80%以上的量子计算机都采用了固态器件的路线。固态设备在与经典计算的兼容性方面具有明显的优势。离子阱等光路在科学研究中应用较多。目前量子计算的主要技术路线(数据来源:华为,赛迪)超导量子计算是目前最快最好的固态量子计算实现方式。超导量子电路的能级可以被外部电磁场干预,电路更容易实现定制化开发。而且,目前的集成电路技术已经非常成熟,超导量子电路的可扩展性优势明显。图片来源:腾讯量子实验室但也存在一些问题。由于量子系统的不可密封性,存在大量环境噪声、磁通偏置噪声等不可控因素,往往会导致量子耗散和相干性减弱。此外,超导量子系统的工作对物理环境要求极高。例如,超低温是超导量子计算实现中不可避免的问题。谷歌Bristlecone量子芯片除了IBM,谷歌、英特尔等公司也在积极开展超导量子研究。谷歌量子人工智能实验室发布的Bristlecone量子芯片可实现72个量子位长度上的单量子位门操作,单量子位门的最佳保真度达到99.9%。此前有专家表示,霍尼韦尔号称拥有世界上最快的量子计算机有炒作之嫌,因为它并没有解决世界上的任何问题,只是在参数上有所改进。霍尼韦尔的离子阱利用电荷与电磁场之间的相互作用力来牵制带电粒子的运动,并利用受限离子的基态和激发态两个能级作为量子位。量子态存储在单个离子阱中,并从中读取信息。量子比特可以通过它们在井中的运动直接相互作用,或者通过光和微波的发射和吸收来相互作用。虽然离子阱技术本身的发展可以追溯到1980年,但利用离子阱技术实现量子计算是奥地利量子科学家Circa和Zoller于1995年首次提出的。2003年,实验室实现了利用失谐激光束照射和激光冷却来控制非门。同年,实验室首次利用离子阱技术成功实现了Deutsch-Jozsa算法。奥地利因斯布鲁克的离子阱量子计算机离子阱量子计算具有量子比特质量高、相干时间长、量子比特制备和读写效率高等优点。然而,离子阱技术也面临着诸多问题。由于外部激光的不稳定性和电磁场的噪声,削弱了量子比特的相干性。此外,离子阱难以与多条离子链共存,可扩展性较差。霍尼韦尔之所以能够在离子阱量子计算领域取得飞跃,部分原因是它在2015年突破了一项关键技术,即使用激光捕获叠加态的带电粒子。自2017年以来,IBM的量子体积每年都翻一番。2019年,IBM表示其名为Raleigh的量子计算机的量子体积为32,高于一年前的16。有分析指出,霍尼韦尔的离子阱更具学术性,而IBM的解决方案更实用。量子计算:超低温也能使人工智能升温尽管量子计算仍处于早期阶段,但已经有许多创新和突破。那么它将在人工智能领域发挥怎样的作用呢?数据增强变得简单易行。现在的生成模型不仅仅局限于回答问题,还可以输出图片、音乐、视频等等。假设你有很多人脸照片,但其中很多不是正面照片。生成模型可以帮助您从中创建更准确的“正面”。将量子处理单元插入经典框架可以显着提高生成图像的质量。这如何帮助我们改进经典机器学习模型?如果你尝试用一个小的人脸数据集训练一个经典的人脸检测模型,但性能不是很好,你可以使用量子增强生成模型来扩充数据集,这可以显着提高模型性能。自然语言处理能更好地理解“人类语言”。自然语言处理(NLP)算法将在量子计算中实现“意义感知”的突破。“意义感知”意味着计算机实际上可以理解整个句子,而不仅仅是单词,并且可以将它们的感知能力扩展到整个短语,甚至整篇文章。BERT等语言模型的进一步完善依赖于量子计算强大的计算能力。随着量子计算机的发展,自然语言处理的应用将会更加广泛。执行效率更高,新算法设计成为可能AI和ML是根据过去的经验学习解决方案的好方法。例如,告诉计算机猫是什么可能有点挑战,因为它无法学习。如果你用足够多的“猫图片”训练神经网络,计算机将能够正确识别其他猫。在量子计算机上运行这些数据可以大大提高人工智能和机器学习算法的执行效率。对于某些算法,甚至可以实现指数增长。量子计算机不仅可以更快地执行任务,它还可以执行以前不可能完成的任务。让金融模型更智能目前,人工智能在金融领域的应用越来越广泛。量子物理学是概率论,金融市场预测在某种程度上也是概率论。量子计算机可以构建无限数量的候选模型,有可能更好地预测分布,从而产生更准确的答案。基本思想是,有些问题需要人工智能生成新数据才能做出决定。解决这个问题可能需要提出一个底层模型来解决未??知条件下的概率分布,这是量子计算的强项。量子计算和经典计算是协作的而不是竞争的。就机器学习而言,经典计算和量子计算具有协同工作的潜力。他们可以利用云计算的弹性和量子计算强大的计算能力协同工作。经典计算和量子计算各有优势,当前量子计算的发展使其成为解决方案的一部分。随着时间的推移,这两种计算方式都将继续发展。在利用量子计算功能的同时加速传统GPU和ASIC上的工作负载的能力可以使量子计算更快,结果更可靠。在不久的将来,也许我们就可以利用量子计算,利用其无穷的计算能力来降低世界的复杂性。
