当前位置: 首页 > 科技观察

为提高能量利用效率,大脑练就了预测感知能力

时间:2023-03-13 04:03:21 科技观察

为了提高能量的利用效率,大脑发展了预测和感知的能力。我们的大脑,一个包裹在头骨中的重达三磅的组织,是如何从感觉中产生知觉的?这一直是个谜。几十年来,大量研究和证据表明,大脑不能像拼图一样简单地将感官信息组织在一起来感知周围的环境。事实上,大脑仍然可以根据进入眼睛的光线构建场景,即使传入的信息杂乱模糊,也证明了这一点。结果,越来越多的神经科学家开始将大脑视为“预测机器”。通过预测处理,大脑利用其对世界的先验知识进行推断或产生假设,以解释传入感官信息的原因。这些假设在我们的脑海中产生了感知,而不是感官输入本身。输入的感官信息越模糊,对先验知识的依赖就越强。荷兰拉德堡德大学预测脑实验室的神经科学家FlorisdeLange表示,预测处理框架的美妙之处在于它具有非常强大的能力来解释不同系统中的许多不同现象。然而,越来越多的神经科学证据表明,这种观点背后的想法在很大程度上是间接的,并且对其他解释持开放态度。“如果你看看人类的认知神经科学和神经影像学,就会发现很多证据,但这些证据非常隐蔽,”研究机器学习和神经科学跨学科领域的拉德伯勒大学的蒂姆基茨曼说。间接地。”因此,研究人员开始尝试通过计算模型来理解和测试预测大脑的想法。计算神经科学家研究生物神经元的行为,以构建可以学习对输入信息进行预测的人工神经网络。这些模型可以密切模仿真实大脑的能力。一些使用这些模型的实验甚至表明大脑必须进化成预测机器才能满足能量限制。随着计算模型的发展,研究活体动物的神经科学家越来越相信大脑会学习推断感官输入的原因。虽然大脑如何做到这一点的确切细节仍然模糊,但大局正在变得越来越清晰。1.感知中的无意识推理预测处理乍一看似乎是一种违反直觉的复杂感知机制,但是科学家们一直非常偏爱它,因为似乎没有其他更好的解释化。甚至在一千年前,穆斯林阿拉伯天文学家和数学家HasanIbnAl-Haytham在他的《光学书》中就强调了一种预测处理的形式来解释视觉的各个方面。这个想法在1860年代获得了强有力的支持,当时德国物理学家和内科医生赫尔曼·冯·亥姆霍兹(HermannvonHelmholtz)认为,大脑会为其传入的感官输入推断外部原因,而不是根据这些输入“自下而上”地构建它们。20世纪中叶,认知心理学家利用这种既像鸭子又像兔子的图像来研究人类的感知,亥姆霍兹发展出“无意识推理”的概念来解释双稳态或多稳态感知,即可以感知一个图像以不同的方式。例如,在一些模糊的图像上,如上图,我们可以将其感知为鸭子,也可以将其视为兔子,我们的感知在两种动物图像之间不断切换。亥姆霍兹提出,在这种情况下,由于在视网膜上形成的图像没有变化,感知一定是一种无意识过程的结果,这种过程自上而下地推断出感官信息的原因。在20世纪,认知心理学家继续提出这样的观点,即知觉是一个主动构建的过程,它利用自下而上的知觉和自上而下的概念输入。RichardLangtonGregory在1980年发表了一篇非常有影响力的论文“PerceptionsasHypotheses”。在论文中,作者认为知觉错觉本质上是大脑对感官印象产生原因的错误猜测。与此同时,计算机视觉科学家正在努力使用自下而上的重建方法,让计算机在不参考内部“生成”模型的情况下进行观察。尽管人们越来越接受预测处理,但关于它是如何在大脑中实施的问题仍然存在。一种称为预测编码的流行模型假设大脑中存在信息处理级别。最高级代表最抽象和最高级的知识,例如,对前方阴影中蛇的感知。该层通过向下发送信号来预测下一层的神经活动。较低层将它们的实际活动与上面的预测进行比较。如果存在不匹配,该层会生成向上流动的错误信号,以便更高层可以更新其内部表示。这个过程对于每一对连续的层同时发生,一直到接收实际感知输入的最低层。从外界接收到的信息与预期结果之间的任何差异都会导致错误信号并波及整个层级。然后顶层终于更新了它不是蛇的假设,它只是地上的一根盘绕的绳子。“总的来说,预测编码背后的原理是大脑基本上有两个神经元群,特别是当应用于皮层时,一个神经元对当前对感知的最佳预测进行编码,另一个是该预测中的错误信号,”德兰格说。1999年,索尔克生物研究所和罗切斯特大学的计算机科学家RajeshRao和DanaBallard分别建立了一个强大的预测编码计算模型,神经元明确用于预测和纠错。他们模拟了灵长类动物大脑视觉处理系统中的部分通路,该系统由负责识别面部和物体的分层组织区域组成。他们的研究表明,该模型可以重现灵长类视觉系统的一些异常行为。然而,这项工作是在现代深度神经网络出现之前完成的。另一方面,深度神经网络有一个输入层、一个输出层和它们之间的多个隐藏层。到2012年,神经科学家开始使用深度神经网络来模拟灵长类动物的腹侧视觉流。但几乎所有这些模型都是前馈网络,其中信息仅从输入流向输出。“大脑显然不是一台纯粹的前馈机器,”德兰格说。“大脑中的反馈与前馈信号一样多。”因此,神经科学家转向另一种模型——循环神经网络(RNN)。纽约西奈山伊坎医学院的计算神经科学家兼助理教授KanakaRajan说,这些模型的特征使它们成为模拟大脑的“理想基质”,他的实验室使用RNN来了解大脑功能。RNN在神经元之间同时具有前馈和反馈连接,并且它们连续发射,与输入无关。“这种长时间产生这些动态的能力几乎是永久性的,然后可以训练这些网络,”拉詹说。2.预测是针对节能的RNN。还有GabrielKreiman的笔记。2016年,该团队构建了PredNet,这是一种循环神经网络,其架构旨在执行预测编码。遵循预测编码的原则,该团队将RNN设计为四层层次结构,每一层预测它从下一层预测的输入,如果不匹配则向上发送错误信号。WilliamLotter然后,他们用汽车摄像头拍摄的城市街道视频对网络进行了训练。PredNet学习连续预测视频中的下一帧。“一开始我们不确定它是否真的有效,然后我们尝试了它,它实际上在做出预测。这非常酷,”洛特说。下一阶段是将PredNet与神经科学联系起来。去年,Lotter和他的团队在期刊《Nature Machine Intelligence》中报告说,PredNet展示了猴子大脑中看到的对意外刺激做出反应的行为,包括在简单的前馈网络中难以复制的行为。Kietzmann认为PredNet是一项非常了不起的工作。但他和MarcelvanGerven以及他们的团队追求的是更基本的东西:无论是Rao和Ballard模型,还是PredNet,他们都结合了人工神经元进行预测和纠错,以及自上而下的神经网络导致到正确性。向下预测错误的神经元被抑制的机制。但是,如果这些都没有明确规定怎么办?Kietzmann表示有兴趣了解是否真的需要这些限制,或者是否有更简单的方法来做到这一点。Kietzmann和vanGerven的脑海中突然冒出一个想法:神经通信需要消耗能量(大脑是人体中能量最密集的器官)。因此,生物体中任何进化的神经网络的行为都可能受到限制以节省能量。研究人员决定看看在必须使用尽可能少的能量来完成任务的RNN中是否会出现任何用于预测编码的计算机制。他们认为,网络中人工神经元之间的连接强度(也称为权重)可以作为突触传递的代表,这就是为什么大部分能量都消耗在生物神经元中的原因。“如果你减少人工神经元之间的权重,这意味着你使用更少的能量进行交流。我们认为这是最小化突触传递,”Kietzmann说。当具有预测编码架构的神经网络PredNet呈现视频序列中的帧(顶部)时,它会学习预测它们(底部)。然后,该团队在多个连续的数字序列上训练RNN,这些数字序列按升序排列:1234567890、3456789012、6789012345等。每个数字都以28×28像素的图像形式显示给网络。RNN学习一个内部模型,可以从序列中的任意随机位置开始预测下一个数字。但是网络被迫以尽可能少的单元之间的权重来做到这一点,类似于生物神经系统中的低级神经活动。在这些条件下,RNN学会了预测序列中的下一个数字。其中一些人工神经元充当“预测单元”,代表预期输入的模型。其他神经元充当“错误单元”,当预测单元尚未学会正确预测下一个数字时,它们最活跃。当预测单元开始正确时,这些错误的单元就变得“低调”了。值得一提的是,网络之所以采用这种架构,是因为它必须最大限度地减少能源使用。Kietzmann说:“它只是学习进行人们通常明确构建到系统中的那种抑制,我们的系统被打开并将其作为一种应急措施来节省能源。”“最小化能量使用研究人员的神经网络最终实现了某种预测处理,证明生物大脑可能也在做同样的事情。Rajan称Kietzmann的工作是一个“非常巧妙的例子,说明像能量最小化这样的自上而下的约束如何间接地导致特定功能,如预测编码”。这促使她想知道RNN中特定错误和预测单元的存在是否可能是偶然的,以及是否只有网络边缘的神经元在接收输入。如果输入是分布式的她说,在整个网络中,“我下意识的猜测是,虽然你不会发现错误单元和预测单元之间的分离,但你仍然会发现预测活动。”3.大脑行为的统一框架这些来自计算研究的见解可能看起来,最终只有来自活体大脑的证据才能说服神经科学家相信大脑中的预测处理。为此,BlakeRichards,a麦吉尔大学和魁北克人工智能研究所Mila的神经科学家和计算机科学家以及他的同事针对他们应该在学习预测意外事件的大脑中看到什么制定了一些明确的假设。事物。“大脑中的锥体神经元在解剖学上似乎适合预测处理,因为它们可以分别整合来自邻近神经元的‘自下而上’信号和来自更远距离的‘自上而下’信号——selvanegra为了检验他们的假设,他们和研究人员在西雅图艾伦脑科学研究所对老鼠进行了实验,同时监测了它们大脑中的神经活动。特别有趣的是,新皮质中的某些锥体神经元在解剖学上适合预测处理。它们接收来自局部自下而上的感觉信号附近的神经元通过输入到它们的细胞体,并通过它们的顶端树突从更远的神经元发出自上而下的预测信号。小鼠看到许多Gabor斑块的序列,这些斑块由明暗条纹组成。小鼠还开始期望每个序列中的所有四个点都大致位于同一方向。然后,突然间,研究人员意外地将第四个Gabor补丁随机旋转到不同的方向。动物们起初很惊讶,但随着时间的推移,它们也开始期待这种惊喜。在此期间,研究人员一直在观察老鼠大脑中的活动。他们观察到许多神经元对预期和意外刺激的反应不同。重要的是,这种差异在测试第一天的局部自下而上信号中很明显,但在第二天和第三天减弱了。在预测处理的背景下,新形成的自上而下的期望开始抑制对传入感官信息的反应,因为刺激不那么强烈。同时,顶端树突的情况正好相反。随着时间的推移,他们对意外刺激的反应差异越来越大。神经回路似乎正在学习能够更好地代表令人惊讶的事件的特性,从而使它们下次能够做出更好的预测。“这项研究进一步支持了预测性学习或预测性编码之类的事情正在新皮质中发生的想法,”理查兹说。诚然,对神经元活动或动物行为的个体观察有时可以用其他一些大脑模型来解释。例如,神经元对相同输入的反应减弱,而不是被解释为对错误单元的抑制,可能仅仅是由于适应过程。但是,“你会得到对不同现象进行解释的整本‘电话簿’,”德兰格说。另一方面,预测处理提供了一个统一的框架,可以同时解释许多现象,这使得它作为大脑如何工作的理论很有吸引力。“我认为到目前为止的证据非常有说服力,”理查兹说,“我实际上愿意为这一说法投入大量资金。”