常识是所有人类拥有的知识。这样的知识是不言而喻的,也没有成文 - 我们认为这是理所当然的。从我们出生的那一天起,我们就无法察觉地获得它。例如,“动物不开车”或“我的母亲比我大”。即使解决非常狭窄的特定领域任务,人类专家也经常使用这些知识。这种常识性知识是我们通过经验和好奇心学习的东西,甚至没有意识到。我们一生中还获得了很多。
M.C.埃舍尔,相对论?资料来源:沙龙·莫勒斯(Sharon Mollerus)。Flickr
AI系统没有常识知识,并且从一开始就被认为是重要的。此外,除了多年来所做的所有努力外,构建常识推理系统是一项工作密集型,有时甚至是昂贵的任务,已经很明显了。在本文中,我展示了为什么常识推理如此重要,并描述了一些用于构建这些系统的方法。这些方法使常识性推理任务可以用作AI客户端程序的附加组件(例如聊天机器人)。
为什么常识知识对AI系统如此重要?
AI的开国元勋之一约翰·麦卡锡(John McCarthy)是第一个实现其重要性的人之一。他撰写了一篇论文,该论文是第一个通过1959年通过一个名为Advience Taker的假设计划提出常识推理的论文。本文仅描述了常识性计划应该做什么的规范。但是,很快就显然需要使用常识知识计划来协助AI专家系统中的决策。这些系统代表了AI的第一个商业繁荣时期,因此常识知识被视为其成功的重要辅助。
人们认为常识推理很重要的原因是,许多系统在解决问题方面都非常有能力,但是它们也很脆弱,因为当试图用异常问题数据推理时,它们通常给出毫无意义的答案。例如,正如我稍后显示的那样,医学诊断专家系统没有意识到,当它诊断出带麻疹的汽车时,它没有得到汽车数据。这些荒谬的情况永远不会使用人类专家,因为它们的常识可以使他们知道这是无效的数据。同样,人类专家有时会以常识甚至可以覆盖其专业领域知识的方式进行理性。例如,医学专家可能正在考虑对预期寿命短的老年患者进行威胁生命的手术。鉴于他或她对情况的常识理解,专家可能会排除手术。没有常识知识的AI专家系统将没有更广泛的观点来做出这样的决定。
为什么一些深入学习的项目努力适应变化?
在我的上一篇OpenMind出版物中,我讨论了使用深度学习提供人级AI的困难。尽管深度学习在模式识别方面表现出色,但即使遇到了小的修改,也必须在适应性方面非常差,并且必须重新训练大量数据。相比之下,人类可以通过从常识知识中进行推理和做出逻辑推论,从而更加轻松地适应。这意味着,当人类专家遇到一个熟悉的域或新领域的变化时,他们通常可以以深层推理模型无法进行的方式进行适应。
人类水平的智力已被称为强大的AI或人工通用智能(AGI)。
一些常识推理项目
在过去的30年中,已经开发了许多常识项目。第一个是始于1984年的CYC [1]。这是一个非常雄心勃勃的AI项目,试图通过组装熟悉的常识概念的本体论来显式地代表常识性知识。它被命名为CYC,从百科全书中获取,因为它试图存储大量的现实知识。该项目最初位于德克萨斯州奥斯汀的微电子和计算机技术公司(MCC)。引用了项目负责人兼创始人道格·莱纳特(Doug Lenat)的话说:“ CYC背后的动机是第一代专家系统缺乏常识。这使他们变得“脆弱”。这意味着许多第一代专家系统的表现非常出色,但只有仅限于系统使用的域知识的狭窄界限时。第一代专家系统将无法对更广泛的现实世界常识知识做出明智的反应,而人类专家经常使用,因为他们没有任何东西。”作为此问题的一个例子,Lenat考虑了以下皮肤疾病诊断专家系统对话,实际上是雪佛兰汽车。
程序:身体上有斑点吗?
用户:是的。
程序:什么颜色斑点?
用户:红棕色
程序:树干上的斑点比其他地方更多?
用户:不。
程序:患者有麻疹。
常识将有助于机器不要陷入人类的明显错误
该示例表明,当面对意外情况时,AI系统可能会产生奇异的输出。Lenat称此为广度假设。这指出:“要在意外的情况下聪明地行事,代理必须能够依靠越来越多的一般知识并与特定但遥远的知识相似”。通过建立逻辑关系(有时称为谓词),与数百万关于世界的事实建立逻辑关系(有时称为谓词),经过多年的努力。CYC的目的是使AI应用程序使用其特定领域的知识并执行类似人类的常识推理。它已经运营了很多年,并拥有许多商业客户。
根据CYC网站的说法,“ CYC通过数量级拥有世界上最广泛,最深的常识知识基础(KB)。知识库不是数据库 - 它由CYC用来推理世界并理解您的数据的现实世界公理组成。CYC的KB包括10,000多个谓词,数百万的收藏和概念以及超过2500万的主张。”但是,CYC项目存在一些缺点,尤其是处理人类语言的歧义。它还具有批评家的份额。根据[2],他们认为该项目的目标是令人钦佩的,但是CYC仍然太不完整了,无法产生巨大的影响。该项目需要大量的手工劳动力 - 这意味着开发该系统需要许多专家人员,并且估计要开发的成本超过2亿美元。
其他成本较低的方法使用了开源模型来捕获网络上的数据。开源意味着进入该网站的用户社区可以帮助其构建。例如,ConceptNet是一种自由使用的常识知识基础和自然语言处理工具包,旨在帮助计算机了解人们使用的单词的含义。它通过使用一种表示所谓的语义网络的方法来实现这一目标。这些使用图形方法来描述概念和事件之间的关系来描述常识活动。这个语义网络知识基础包含超过160万个常识知识的主张,例如日常生活的空间,身体,社会和心理方面。它于1999年在麻省理工学院媒体实验室(MIT Media Lab)启动,始于一个名为“开放思维常识”的系统。它已成功用于聊天机器人和一些自然语言支持。
另一种方法是让计算机学习在网络上阅读(称为Web刮擦)以获取常识知识。这样的努力是通过卡内基·梅隆大学(Carnegie Mellon University)开发的系统,该系统于2011年开始,名为Nell(Never Ending Language Learner)。这里的基本思想是Nell被编程为搜索网络并确定语言模式以推断其含义。它通过其网站报道了最近学习的事实。例如,它最近得知奥利弗·斯通(Oliver Stone)为电影肯尼迪(JFK)做出了贡献,那天莉莉(Lily)叶子是蔬菜。他们说,这些可能并不是特别令人兴奋的发现,但仍然有助于超过5000万信仰的知识基础。
美国国防部研究机构DARPA也认识到缺乏常识是一个重要问题。他们最近启动了一个名为Machine常识的项目。正如他们所说:“缺乏常识可以阻止智能系统理解自己的世界,在不可预见的情况下合理地行事,与人自然沟通,并从新的经验中学习。它的缺席被认为是当今狭focus的AI应用与将来更通用的类似人类的AI系统之间最重要的障碍。”DARPA的方法是使用两管齐的策略。他们的提案中的第一个策略涉及建立从经验中学习的计算模型。第二种策略旨在开发一种从阅读网络中学习的服务,例如研究图书馆员,以构建常识知识存储库。
结论
尽管做出了许多英勇的努力,但人们普遍认为,在常见的AI申请中,进展不足。问题之一是非常困难,因为它是一个非常混乱的非结构化域。由于缺乏准确的常识是什么是完整性,也很难知道什么构成完整性。但是,如果我们要克服本文所述的问题,那么进步至关重要。
参考
[1] Lenat,D。和Guha,R。构建大型基于知识的系统:CYC项目的表示和推断。Addison-Wesley 1990。
[2] Marcus,G。和Davis,E。重新启动AI。建立人工智能我们可以信任。Pantheon Books,2019年。
基思·达林顿