上周,谷歌研究院举办了一场关于深度学习以实现概念理解的网络研讨会。座谈会上,屡获殊荣的计算机科学家和神经科学家发表了演讲,讨论了深度学习和神经科学的新发现如何帮助创建更好的人工智能系统。尽管所有的演讲和讨论都非常有价值,但有一个话题特别值得分享:ChristosPapadimitriou,世界领先的计算机科学理论家,哥德尔奖获得者和Gartner奖获得者,哥伦比亚大学计算机科学教授,关于“大脑中的单词表示”。在他的演讲中,Papadimitrio讨论了我们对大脑中信息处理机制的日益了解如何帮助创建在理解和参与对话方面更稳健的算法。具体来说,他提出了一个简单而高效的模型,说明大脑的不同区域如何相互交流以解决认知问题。“现在正在发生的事情也许是世界上最伟大的奇迹之一,”帕帕迪米特里乌说,他指的是他与听众的交流方式。大脑将结构化的知识转化为电波,通过不同的媒介传播,到达听者的耳朵,然后经过大脑的处理,转化为结构化的知识。“毫无疑问,所有这一切都是通过神经元和突触发生的。但它是如何完成的?这是一个问题,”Papadimitriou说。“我相信在接下来的10年里,我们会对细节有更好的了解。”认知和神经科学领域正试图弄清楚大脑中的神经活动如何转化为语言、数学、逻辑、推理和其他功能。如果科学家们成功地使用数学模型来描述大脑的工作原理,他们就可以为创建模仿人类思维的人工智能系统打开一扇新的大门。许多研究都集中在单个神经元上,直到几十年前,它们才被认为与个人思想相对应。最流行的例子是“祖母细胞理论”,它认为每个人的大脑中可能都有一个特殊的神经细胞专门用于识别他们的祖母。但最近的研究结果驳斥了这种说法。这项新研究声称并证明大量神经元与每个概念相关联,并且连接不同概念的神经元之间可能存在重叠。这些脑细胞群被称为集合体,Papadimitriou将其描述为高度连接、稳定的神经元群,代表一个词、一个想法、一个物体等等。神经科学家Gy?rgyBuzsáki将这个系列描述为“大脑的字母表。大脑的数学模型为了更好地理解集体行动,Papadimitriou提出了一种称为“交互式循环网络”的大脑数学模型。在该模型下,大脑被划分为有限数量的区域,每个区域包含数百万个神经元。每个区域内都有循环,暗示神经元之间的相互作用。每个区域都与其他几个区域有联系。这些区域间的联系可以被激发或抑制。该模型是随机的,可塑的和抑制的。随机性意味着每个大脑区域的神经元是随机连接。此外,不同区域之间的连接是随机的。可塑性使神经元和区域之间的连接可以通过经验和训练进行调整,而抑制意味着在任何时刻,有限数量的神经元被激发。Papadimitriou将此描述为一个非常简单的数学模型,基于生命的三种主要力量。Papadimitriou,以及一个gr来自不同学术机构的科学家们在去年发表的一篇论文中详细阐述了该模型。程序集是模型的关键构建块,实现了科学家所说的“程序集微积分”,这是一组可以处理、存储和检索信息的操作。论文地址:https://www.pnas.org/content/117/25/14464《这些行为不是凭空发生的,我相信它们是真实的,可以通过数学证明和模拟验证这些操作对应于真实的行为……这些操作对应于观察到的行为(在大脑中),”Papadimitriou说。Papadimitriou和他的同事假设集合和集合演算是解释大脑认知功能(例如推理、计划和语言)的正确模型。他在谷歌深度学习大会上的演讲中说:“大多数认知能力都符合这一点。基于集合演算的自然语言处理为了测试心智模型,Papadimitriou和他的同事构建了一个自然语言处理系统,该系统使用集合演算来解析英语句子.实际上,他们正试图创建一个AI系统来模仿大脑的集体区域,这些区域负责词汇和语言理解。e引擎产生一个句子解析,”Papadimitriou说,他承认AI模型仍处于初步阶段,缺少语言的许多重要部分。研究人员正在制定计划以填补现有的语言空白。但他们争辩说,所有这些部分都可以通过集合演算来补充,这个假设需要随着时间的推移进行检验。“这是语言的神经基础吗?它是在左半球出生的东西吗?”Papadimitriou问道。关于语言如何在人脑中发挥作用以及它如何与其他认知功能联系起来,仍有许多问题有待回答。但Papadimitriou认为,集成模型让我们更接近于理解这些功能并回答剩余的问题。
