译者|李锐审稿人|孙淑娟识别与自然语言处理。然而,仍然有一些问题是深度学习系统没有解决的。由于深度学习系统不擅长处理新情况,它们需要大量数据进行训练,有时还会犯下连其创造者都感到困惑的怪异错误。一些科学家认为,可以通过创建越来越大的神经网络并在越来越大的数据集上训练它们来解决这些问题。也有人认为,人工智能领域需要的是人类的一些“常识”。在他们的新书《像我们这样的机器》中,计算机科学家RonaldJ.Brachman和HectorJ.Levesque提出了他们的想法和可能的解决方案,以解决这个AI难题的缺失部分,这是一个困扰研究的“常识”难题。几十年来的人员。在接受行业媒体采访时,Brachman讨论了什么是常识,什么不是常识,为什么机器没有常识,以及“知识表示”的概念如何引导AI社区朝着正确的方向发展。“知识表示”的概念已经存在了几十年,但在深度学习热潮期间被搁置。尽管仍然停留在假设的领域,《像我们这样的机器》这本书为潜在的研究领域提供了新的思路,这要归功于自1970年代以来一直深入研究人工智能的两位科学家。好的AI系统会犯奇怪的错误Brachman说,“在过去的10到12年里,随着人们对深度学习表现出非凡的热情,有很多关于基于深度学习的系统可以做我们最初想让AI系统做的事情的讨论做。谈论一切。”在人工智能发展的早期,其愿景是创建一个自给自足的自主系统,可能以机器人的形式出现,可以在很少或没有人为干预的情况下独立做事。“今天,因为许多人对什么感到兴奋深度学习可以实现,研究范围已经缩小了很多,”布拉赫曼说。“特别是在工业界,大量的资金和人才招聘推动了对基于经验或训练有素的系统的搜索,”布拉赫曼说。说。非常令人担忧,许多人声称接近人工通用智能,或'有效的老式人工智能'(GOFAI)或只是过时或不必要的令牌方法。”显而易见的是,尽管深度学习系统令人印象深刻,但它们正面临着尚未解决的令人费解的问题。神经网络容易受到对抗性攻击,其中对输入值的特制修改会导致机器学习模型对其输出做出突然、错误的更改。深度学习还难以理解简单的因果关系,并且在将概念概念化并将它们组合在一起方面也很糟糕。大型语言模型最近成为一个特别感兴趣的领域,但有时在生成连贯且令人印象深刻的文本时会犯非常愚蠢的错误。“人们认为人工智能犯下的这些错误是愚蠢和无知的,而人类很少犯这样的错误,”布拉赫曼说。“但重要的是,造成这些错误的原因有些难以解释。”这些错误导致Brachman和Levesque反思当今AI技术中缺少什么,以及需要什么来补充或替换示例驱动训练的神经网络系统。“如果你仔细想想,这些系统中明显缺少的是人类所谓的常识,即看到对许多人来说显而易见的事物并迅速得出简单明了的结论,并能够做某事的能力当你决定做某事时,”布拉赫曼说。当你立刻意识到一些荒谬或错误选择的东西时,请阻止自己。“什么是常识?人工智能社区从早期开始就一直在谈论常识。事实上,约翰·麦卡锡(JohnMcCarthy)撰写的最早的AI论文之一1958年被命名为。“这不是什么新鲜事,也不是我们发明的名字,但该领域忽略了人工智能先驱们所说的核心含义,”布拉赫曼说。更重要的是,它是如何工作的以及如何它将被实施,人们在心理学文献中几乎找不到指导。”在《像我们这样的机器》中,Brachman和Levesque将常识描述为“有效使用普通的、日常的、使用经验知识的能力,以实现普通的、日常的、实际的目标”。常识是生存所必需的。人类和高等动物已经进化到从经验中学习,发展例行公事和自动驾驶技能,可以处理他们每天面临的大多数情况。但日常生活不仅仅是人们一遍又一遍地看到的例行公事。人们经常面临他们以前从未见过的新情况。一些它们中的一部分可能与正常情况有很大不同,但大多数时候,人们对事物的看法与他们习惯的有所不同。在AI讨论中,这有时被称为“长尾”。“在我们看来,常识实际上是当这些套路被打断时最先激活的东西,让人可以快速学习新的情况,记住之前做过的事情,快速调整记忆,并将其应用到新的情况下,继续前进。”在某种程度上,c常识与心理学家和诺贝尔奖获得者丹尼尔·卡尼曼(DanielKahneman)推广的双系统思维范式略有不同。常识并不快速,自动驾驶系统1认为可以执行人们无需刻意集中注意力即可完成的大多数日常任务(例如,刷牙、系鞋带、扣扣子、在熟悉的区域驾驶)。打破当前的常规需要积极的思考。同时,常识不是系统2思维。系统2思维是一种缓慢的思维模式,需要全神贯注、循序渐进地思考(例如,计划六周的旅行、设计软件、解决复杂的数学方程式)。布拉赫曼说,“人们可以通过深度思考来应对挑战。这种思考会使人的大脑疲惫而且非常缓慢。常识可以让人们在几乎任何日常生活中都避免这种情况,因为不需要深度思考。下一步该做什么”在他们发表的著作中,布拉赫曼和莱维斯克强调,常识是一种“肤浅的认知现象”,其运作速度比深思熟虑的、有条不紊的分析要快得多。“如果需要大量思考才能弄明白,那不是常识。我们可以将其视为‘反思性思维’,而‘反思性’与‘思考’一样重要,”他们写道。没有常识的人工智能的危险常识需要可预测性、信任、可解释性和问责制。布拉赫曼说,“大多数人不会犯奇怪的错误。虽然人可能会做一些愚蠢的事情,但经过反思他们可能会避免这样的错误。虽然人类并不完美,但有些错误在一定程度上是可以预见的。”没有常识的人工智能系统面临的挑战是,当它们达到训练的极限时,它们可能会犯错误。布拉赫曼说,这些错误是完全不可预测和无法解释的。布拉赫曼说:“没有常识的人工智能系统没有这种观点,它们没有后备措施来阻止自己做奇怪的事情,而且它们会很脆弱。”“当他们犯错时,这些错误对他们来说根本没有任何意义。”这些错误可能是无害的,例如错误标记图像,也可能是极其有害的,例如导致自动驾驶汽车驶入错误的车道。Brachman和Levesque在书中写道,“如果人工智能系统遇到的问题是下棋,它的考虑是赢得比赛,那么常识将不会在其中发挥作用,而当人们下棋时,国际象棋,常识会发挥作用。”所以常识将发挥非常关键的作用,因为AI系统在开放领域找到了敏感的应用程序,例如驾驶汽车或与人类合作,甚至进行公开对话。这些领域总是有新奇的事情发生。Brachman和Levesque在《像我们这样的机器》中写道,“如果我们希望人工智能系统能够以合理的方式处理现实世界中常见的事件,我们需要的不仅仅是对已经发生的事情进行采样。仅仅基于对过去发生的事情的观察和内化来预测未来是行不通的。我们需要常识。”重温符号人工智能大多数科学家都认为,当前的人工智能系统缺乏常识。但是,在解决方案方面常常存在一些分歧。一种流行趋势继续使神经网络变得越来越大。有证据表明,更大的神经网络继续进行渐进式改进。在某些情况下,大型神经网络表现出零样本学习技能,它们执行未经训练的任务。然而,也有大量研究和实验表明,更多的数据和计算并不能解决人工智能系统没有常识的问题,而只是将其隐藏在更大、更混乱的数字权重和矩阵运算中。“这些系统注意到并内化了相关性或模式。它们不形成‘概念’。”即使当这些系统与语言交互时,它们也只是简单地模仿人类行为,而没有人们认为它们具有的潜在心理和概念机制,”布拉赫曼说。“Brachman和Levesque提倡创建一个系统,该系统对常识知识和对世界的常识理解进行编码。他们写道:“常识知识是关于世界上的事物及其拥有的属性,由我们所谓的概念结构调节,关于可能存在的事物的种类以及它们可能具有的属性的种类一系列想法。符号表示和对这些符号结构执行计算操作将使用知识。关于做什么的常识性决定相当于使用这种代表性知识来考虑如何实现目标,以及如何处理观察到的情况。回复。”Brachman和Levesque认为,该领域需要回顾并重??新审视一些关于符号AI的早期工作,以便为计算机带来常识。他们称之为“知识表示”假设。本书详细介绍了如何构建知识表示(KR)系统以及如何组合不同的知识片段以形成更复杂的知识和推理形式。根据知识表示(KR)假设,常识知识的表示将分为两部分:“表示世界状态的世界模型,和表示分类的泛化框架的概念模型。“我们的观点是回到早期对人工智能的一些思考,其中可以使用某种符号和符号操作程序(人们过去称之为推理引擎)来编码和使用世界的基本知识人们称之为常识,”布拉赫曼说。:直观或朴素的物理学,对人类和其他代理人的行为方式及其意图和信念、时间和事件如何运作、因果关系等的基本理解。这就是我们在第一年或第二年获得的所有知识。正式表示的世界知识实际上可以对机器的行为产生因果影响,并且还可以从操纵符号做任何事情,比如组合性。并以新的方式呈现熟悉的事物。”布拉赫曼强调,他们在书中所做的假设在未来是可以被推翻的。知道。但作为一个假设和实验,我认为AI的下一步应该是尝试建立这些知识库,并让系统使用它们来处理日常生活中的意外情况,粗略地猜测如何处理熟悉的和不熟悉的情况。Brachman和Levesque的假设建立在之前创建的大型符号常识知识库(例如Cyc)的基础上,Cyc是一个可以追溯到1980年代的项目,收集了关于世界的数百万条规则和概念。布拉赫曼说,“我认为我们需要走得更远。我们需要关注自主决策机器如何在日常决策情况下使用这些东西。积累事实知识并能够回答危险类型的问题是一回事;在嘈杂的世界中工作,并能够对不可预见的意外做出理性及时的反应,这又是另一回事。机器学习是否具有常识性作用?布拉赫曼表示,基于机器学习的系统将继续在其中发挥关键作用人工智能感知。或处理速度信号处理的符号操作系统。这些机器学习系统非常擅长低感官水平的识别任务,目前尚不清楚这些东西在认知链上有多高,但它们不会到最后是因为他们不看人们在场景中看到的东西和自然语言之间形成的概念和联系。神经网络和符号的结合系统是近年来得到重视的一个想法。加里·马库斯(GaryMarcus)、路易斯·兰姆(LuisLamb)和约书亚·特南鲍姆(JoshuaTenenbaum)等人正在提议开发“神经符号”系统,该系统结合了最佳的符号系统和基于学习的系统,以解决当前人工智能面临的挑战。虽然Brachman同意该领域正在进行的大部分工作,但他也表示,目前对混合人工智能的思考需要进行一些调整。“我认为目前的任何神经符号系统都无法解释常识与更结构化、更深入的符号推理之间的差异,后者是数学、大量计划和深入分析的基础,”他说。“我希望在这个你所看到的混合人工智能世界里,真正把常识考虑在内,让机器像人类一样使用常识,让它做和人类一样的事情。”原标题:如何解决AI的“常识”问题,作者BenDickson
