利用宇宙的力量来处理数据!“物理网络”远胜于深度神经网络隔音板条箱内是世界上最差的神经网络。在看到数字6的图像后,神经网络暂停了片刻,然后显示它识别的数字:0。领导神经网络开发的康奈尔大学物理学家和工程师彼得麦克马洪不好意思地笑着说手写的数字看起来潦草。来自NTT研究所的博士后研究员LoganWright说,该设备通常会给出正确的答案,尽管他承认错误很常见。尽管性能不佳,但该神经网络是开创性的研究。研究人员将箱子翻过来,露出的不是计算机芯片,而是一个麦克风,它与固定在扬声器上的钛板成一定角度。与在0和1的数字世界中运行的神经网络不同,该设备根据声音原理运行。当Wright展示数字图像时,图像的像素被转换成音频,扬声器使钛板振动,使实验室充满了微弱的喋喋不休。也就是说,执行“读取”操作的是金属回声,而不是运行在硅片上的软件。该设备的成功令人难以置信,即使对于它的设计者也是如此。“无论金属振动的效果如何,它都不应该与手写数字的分类有任何关系,”麦克马洪说。一月份,康奈尔团队在《Nature》期刊上发表了一篇论文,题目是“Deepphysicalneuralnetworkstrainedwithbackpropagation”。这篇描述了该设备原始阅读能力的论文给麦克马洪和其他人带来了希望,即通过多项改进,该设备可以彻底改变计算。论文链接:https://www.nature.com/articles/s41586-021-04223-6谈到传统的机器学习,计算机科学家发现神经网络越大越好。具体原因可以参考下图中的文章。这篇名为《ComputerScientistsProveWhyBiggerNeuralNetworksDoBetter(计算机科学家证明为什么BiggerNeuralNetworksDoBetter)》的文章证明:如果你想让网络可靠地记住它的训练数据,过度参数化不仅有效,而且强制执行。文章地址:https://www.quantamagazine.org/computer-scientists-prove-why-bigger-neural-networks-do-better-20220210/一个神经网络充满了更多的人工神经元(存储值的节点),可以提高其区分腊肠犬和斑点狗的能力,并使其在无数其他模式识别任务中取得成功。真正庞大的神经网络可以写论文(比如OpenAI的GPT-3),画插图(比如OpenAI的DALLE、DALLE2,还有谷歌的Imagen),以及更难的任务,让人浮想联翩。有了更多的计算能力,就有可能实现更大的成就。这种可能性鼓励人们努力开发更强大、更高效的计算方法。麦克马洪和一群志同道合的物理学家支持一种非常规的方法:让宇宙为我们处理数据。“许多物理系统自然能够比计算机更有效或更快地进行某些计算,”麦克马洪说。他以风洞为例:当工程师设计一架飞机时,他们可能会将蓝图数字化,并在超级计算机上花费几个小时来模拟机翼周围的空气流动。或者,他们可以将车辆放在风洞中,看看它是否可以飞行。从计算的角度来看,风洞可以立即“计算”飞机机翼与空气的相互作用。图说:康奈尔大学团队成员PeterMcMahon和TatsuhiroOnodera正在为完成学习任务的各种物理系统编写程序。图片来源:DaveBurbank风洞可以模拟空气动力学,是一台功能单一的机器。像麦克马洪这样的研究人员正在研究一种可以学习做任何事情的设备——一种可以通过反复试验调整其行为以获得任何新能力的系统,例如对手写数字进行分类,或区分一个元音和另一个元音等能力。.新的研究表明,光波、超导网络和电子分支流等物理系统都可以学习。“我们不仅仅是在重塑硬件,我们还在重塑整个计算范式,”瑞士苏黎世联邦理工学院的数学家BenjaminScellier说,他帮助设计了一种新的物理学习算法。1.学会思考学习是一个独特的过程。十年前,大脑是唯一能够学习的系统。正是大脑的结构在一定程度上启发了计算机科学家设计深度神经网络,这是当今最流行的人工学习模型。深度神经网络是一种边做边学的计算机程序。深度神经网络可以被认为是一个网格:用于存储值的节点层称为神经元,神经元通过导线连接到相邻层的神经元,也称为“突触”。最初,这些突触只是称为“权重”的随机数。如果想让网络读到4,可以让第一层神经元代表4的原图,可以把每个像素的影子作为一个值存入对应的神经元中。然后网络“思考”,逐层移动,用乘以突触权重的神经元值填充下一层神经元。最后一层中值最大的神经元就是神经网络的答案。例如,如果这是第二个神经元,网络会猜测它看到了2。为了教会网络做出更聪明的猜测,学习算法会反向工作。每次尝试后,它都会计算猜测和正确答案之间的差异(在我们的例子中,这个差异将由最后一层第四个神经元的高值和其他地方的低值表示)。然后该算法逐层遍历网络,计算如何调整权重,使最终神经元的值根据需要上升或下降。这个过程称为反向传播,是深度学习的核心。通过重复多次猜测和调整,反向传播将权重定向到一组数字,这些数字将通过由图像启动的级联乘法输出结果。图片来源:QuantaMagazineMerrillSherman但是与大脑的思维相比,人工神经网络中的数字学习看起来效率低下。每天摄入不到2000卡路里的热量,人类儿童可以在短短几年内学会说话、阅读、玩游戏等等。由于能量如此有限,能够流畅对话的GPT-3神经网络可能需要一千年才能学会聊天。从物理学家的角度来看,大型数字神经网络只是试图做太多的数学运算。当今最大的神经网络必须记录和处理超过5000亿个数字。这个惊人的数字来自论文《PathwaysLanguageModel(PaLM):Scalingto5400BillionParametersforBreakthroughPerformance》,如下图:论文链接:https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html与此同时,宇宙不断涌现出远远超出计算机微薄计算能力极限的任务。一个房间里可能有数万亿个空气分子在蹦蹦跳跳。对于成熟的碰撞模拟,这是计算机无法跟踪的移动物体的数量,但空气本身可以很容易地随时决定自己的行为。我们目前的挑战是建立一个物理系统,能够自然地执行人工智能所需的两个过程——对图像进行分类的“思考”,以及对此类图像进行正确分类的“学习”。掌握这两项任务的系统是真正利用宇宙的数学力量,而不仅仅是做数学。“我们从来没有计算过3.532乘以1.567之类的东西,”Scellier说。“系统计算,但隐含地遵守物理定律。”2思考部分McMahon和合作者在拼图的“思考”部分取得了进展。麦克马洪在大流行前几个月在康奈尔大学建立了他的实验室,他仔细考虑了一个奇怪的发现。多年来,用于图像识别的性能最佳的神经网络变得越来越深入。也就是说,具有更多层的网络更擅长获取一堆像素并为其赋予“贵宾犬”之类的标签。这种趋势启发了数学家研究神经网络实现的转换(从像素到“贵宾犬”)。2017年,几个小组在论文《ReversibleArchitecturesforArbitrarilyDeepResidualNeuralNetworks》中提出,神经网络的行为是平滑数学函数的近似版本。论文地址:https://arxiv.org/abs/1709.03698在数学中,一个函数将一个输入(通常是一个x值)转换成一个输出(y值或曲线在该位置的高度)。在某些类型的神经网络中,层数越多越好,因为函数是锯齿更少,更接近某种理想曲线。这项研究引起了麦克马洪的思考。也许随着物理系统的平稳变化,人们可以避开数字方法固有的障碍。诀窍是找到一种方法来驯化一个复杂的系统——调整它的行为通过培训。麦克马洪和他的合作者为这样的系统选择了钛板,因为它们的许多振动模式以复杂的方式混合传入的声音。为了让平板电脑像神经网络一样工作,他们输入声音d对输入图像(例如手写的6)和表示突触权重的另一个声音进行编码。声音的波峰和波谷需要在正确的时间撞击钛板,以便设备组合声音并给出答案——例如,一个新的声音在6毫秒内最响亮,代表分类为“6”。图片说明:康奈尔大学的一个研究团队训练了三种不同的物理系统来“读取”手写数字:从左到右依次是振动钛板、晶体和电子电路。来源:左图由康奈尔大学的RobKurcoba拍摄;右边的照片是由QuantaMagazine的CharlieWood拍摄的。该小组还在光学系统中实施了他们的方案——输入图像和权重被编码在由晶体混合在一起的两束光束中——以及在可以类似地转换输入的电子电路中。原则上,任何具有拜占庭行为的系统都可以这样做,但研究人员认为光学系统具有特殊的前景。水晶不仅可以极快地混合光线,而且光线还包含有关世界的丰富数据。麦克马洪想象有一天,他的光学神经网络的微型版本可以充当自动驾驶汽车的眼睛,能够识别停车标志和行人,然后将信息输入汽车的计算机芯片,就像我们的视网膜做一些基本视觉一样对于入射光。一样处理。然而,这些系统的致命弱点是训练它们需要返回数字世界。反向传播涉及向后运行神经网络,但负片和晶体不能轻易分解声音和光线。因此,该团队为每个物理系统构建了一个数字模型。在笔记本电脑上反转这些模型,他们可以使用反向传播算法来弄清楚如何调整权重以给出准确的答案。通过这次训练,钛板学会了对手写数字进行分类,准确率达到了87%。上图中电路和激光器的准确度分别为93%和97%。结果表明,“不仅标准的神经网络可以通过反向传播进行训练,”法国国家科学研究中心(CNRS)的物理学家JulieGrollier说,“它很漂亮。”计算效率接近大脑的惊人效率,该设备甚至不如数字神经网络快。但McMahon认为他的设备非常棒,因为它证明了人们不仅可以用大脑或计算机芯片思考。“任何物理系统都可以是神经网络,”他说。3学习部分的另一个难题是如何让一个系统完全自主学习。德国马克斯·普朗克光科学研究所的物理学家弗洛里安·马夸特说,一种方法是制造一台倒着运行的机器。去年,在论文“基于哈密顿回声反向传播的自学习机器”中,他和一位合作者提出了一种可以在这样的系统上运行的反向传播算法。物理模拟。论文地址:https://arxiv.org/abs/2103.04992为了证明这是可行的,他们数字模拟了一个类似于麦克马洪装置的激光装置,在一个光波中编码可调权重,用另一个输入波(编码,如图像)混合。他们使输出更接近正确答案,并使用光学元件分解波,逆转过程。“令人惊奇的是,”Marquardt说,“当你用相同的输入再次尝试该设备时,输出往往更接近你想要的位置。”接下来,他们正在与实验者合作构建这样一个系统。但是专注于向后运行的系统限制了选择,因此其他研究人员完全抛弃了反向传播。知道大脑学习的方式不是标准的反向传播,他们的研究受到了打击,更进一步。“大脑没有反向传播,”Scelier说。当神经元A与神经元B通信时,“传播是单向的”。图片说明:CNRS物理学家JulieGrollier实现了一种物理学习算法,被视为反向传播的有前途的替代方案。图片来源:ChristopheCaudroy2017年,Scellier和蒙特利尔大学计算机科学家YoshuaBengio开发了一种称为平衡传播的单向学习方法。我们可以看到它是如何以这种方式工作的:想象一个像神经元一样的箭头网络,其方向代表0或1,由充当突触权重的弹簧连接成网格。弹簧越松,连接的箭头就越难对齐。首先,旋转最左边的一排箭头以反映手写数字的像素,然后在保持最左边一排箭头不变的情况下,让这种扰动通过弹簧传播以旋转其他箭头。当翻转停止时,最右边的箭头给出了答案。关键是,我们不需要翻转箭头来训练系统。相反,我们可以在显示正确答案的网络底部附加另一组箭头,然后那些正确的箭头翻转顶部的箭头组,整个网格进入新的平衡状态。最后,将箭头的新方向与旧方向进行比较,并相应地拧紧或松开每个弹簧。经过多次试验,弹簧获得了更智能的张力,Scellier和Bengio已经证明这等同于反向传播。“人们认为物理神经网络和反向传播之间不可能存在联系,”Grollier说。“最近这种情况发生了变化,这非常令人兴奋。”平衡传播的最初工作都是理论性的。但在即将发表的一篇论文中,Grollier和CNRS物理学家JérémieLaydevant描述了该算法在D-Wave公司制造的量子退火机上的执行情况。该设备有一个由数千个相互作用的超导体组成的网络,这些超导体就像由弹簧连接的箭头,自然会弄清楚“弹簧”应该如何更新。但是,系统无法自动更新这些突触权重。4闭环至少有一个团队收集了零件来构建一个电子电路,该电路使用物理学来完成所有繁重的工作——思考、学习和更新权重。宾夕法尼亚大学的物理学家SamDillavou说:“我们已经能够关闭一个小型系统的循环。”Dillavou和他的合作者旨在模仿大脑,这是真正的智能,一个相对统一的系统,不需要任何单一结构来做主。“每个神经元都在做自己的事情,”他说。为此,他们构建了一个自学习电路,其中可变电阻器充当突触权重,神经元是通过电阻器测量的电压。为了对给定的输入进行分类,该电路将数据转换为施加到多个节点的电压。电流流过电路,寻找消耗最少能量的路径,并在稳定时改变电压。答案是指定输出节点的电压。想法的创新之处在于具有挑战性的学习步骤,为此他们设计了一种类似于均衡传播的方案,称为耦合学习。当一个电路接收到数据并“猜测”结果时,另一个相同的电路会从正确答案开始并将其纳入其行为。最后,连接每对电阻器的电子设备会自动比较它们的值并调整它们以获得“更智能”的配置。该小组在去年夏天的预印本(见下图)中描述了他们的基本电路,在一篇题为“去中心化、物理驱动学习的演示”的论文中展示了这个电路可以学习区分三种类型的花,准确率为95%。现在他们正在开发一种更快、更强大的设备。论文地址:https://arxiv.org/abs/2108.00275即使是这种升级也无法击败最先进的硅芯片。但是构建这些系统的物理学家怀疑,与模拟网络相比,数字神经网络虽然今天看起来很强大,但最终也会显得缓慢和不足。数字神经网络在陷入过度计算的泥潭之前只能扩大到一定程度,但更大的物理网络只需要是它们自己。“这是一个非常庞大、快速发展和变化的领域,我毫不怀疑一些非常强大的计算机将使用这些原理来构建。迪拉沃说。
