NLP研究人员知道,语言模型只能学习语法上下文信息,对于常识性问题无所适从。南加州大学助理教授近日来访《对话》,讲解他的常识和解决方法。他悲观地预测,可能需要5年、50年的时间才能解决这个问题,但没人知道需要多长时间。如果说人工智能和真正的人脑有差距,最重要的是机器缺乏生活常识。一切看似合理、理所当然的事情,在计算机眼中都是不可理解的。计算机不知道“柠檬是酸的”和“只有成熟的香蕉是黄色的”。这也是通用人工智能领域尚未解决的问题。而人类可以根据过去的常识调整自己的行为。比如你和你的朋友王二约好了一起吃午饭,上周你们还打算一起吃“开封菜”,但是你想起他这周开始减肥了,所以为了保险起见方,最好在订购前讨论它。但机器做不到这一点,强大的记忆力和逻辑性无法让它把“开封菜”和减肥联系起来。我们想当然地认为我们有能力处理这样的情况,因为我们有一整套常识,没有它我们可能无法在人类社会中很好地生存,比如做饭时不能把煤气和气味联系起来两者加在一起,后果将是灾难性的。南加州大学助理教授MayankKejriwal近日接受《对话》(theConversation)专访,介绍了他眼中计算机处理常识的方法和困境。常识的定义尽管常识对于人类如何理解周围的世界以及如何学习来说既普遍又必不可少,但常识过于模糊,无法给出一个精确的定义。然而,20世纪初,英国哲学家、神学家吉尔伯特·基思·切斯特顿(G.K.Chesterton)有一句名言:常识是超越规则的野蛮事物。常识是一种狂野的、野蛮的、超越规则的东西。现代定义将其视为一种自然而非课堂授予的能力,使人们能够驾驭日常生活。常识非常广泛,不仅包括社交能力,例如管理期望和推理他人的情绪,还包括与生俱来的身体感觉,例如知道沉重的石头不能安全地放在薄的塑料桌子上。先天或这种简单的物理感觉,因为人们虽然知道这些东西,但并不是通过研究物理方程来得出结论的。常识还包括时间、空间和事件等抽象概念的背景知识。这种知识使人们能够在不太精确的情况下计划、评估和组织世界上的事物。常识因其模糊性而难以计算。自1950年代该领域的早期发展以来,常识一??直是人工智能前沿领域的一项重要挑战。尽管人工智能取得了巨大进步,尤其是在游戏和计算机视觉方面,但机器常识仍远未达到人类常识的丰富程度。这就是为什么AI可以解决复杂的现实世界问题,例如为COVID-19患者诊断和推荐治疗方法,但其他需要常识的问题却常常失败。现代人工智能旨在解决高度具体的问题,而不是常识,常识是模糊的,不能用一套规则来定义。即使是最新的模型有时也会出现荒谬的错误,这表明AI的世界模型中缺少一些基本的东西。当你给GPT-3喂下面这串文字时,“你给自己倒了一杯蔓越莓,然后心不在焉地往里面倒了一茶匙葡萄汁。看起来很好。你试着闻一下,但你得了重感冒,所以你什么都闻不到。你渴了。所以你”然后GPT-3会继续写:“喝吧,你现在已经死了。”(喝吧,你现在死定了)(可怕的果汁)人工智能界逐渐重视常识系统的研究。DARPA在2019年启动了一个为期四年的机器常识项目(MachineCommonSense),旨在加速常识领域的研究,并发布了一篇论文概述了该领域存在的问题和研究情况。CommonSenseforMachines项目资助了许多当前的机器常识研究工作,包括多模态开放世界基础学习和推理(MOWGLI),该项目能够构建能够回答常识性问题的计算机系统。Transformer在NLP界已经yyds了,但他真的能拯救常识系统吗?Transformer构建的自然语言模型,经过一些调整,可以回答简单的常识性问题。常识性问答是构建可以像人一样交谈的聊天机器人的重要第一步。这种快速的进步迫使该领域的研究人员在科学和哲学的边缘面对两个相关的问题:什么是常识?我们如何知道人工智能是否具有常识?对于第一个问题,研究人员将常识分为不同的类别,包括常识社会学、常识心理学和常识背景知识。并且有研究人员可以更进一步,将这些类别划分为48个细粒度的域,例如计划、威胁检测和情绪。但是,这些类别之间的区别不是很清楚。即使是专业的人类注释者,即分析文本和对其组成部分进行分类的工作者,对于常识的哪些方面适用于特定句子也存在分歧。注释者喜欢相对具体的类别,例如时间和空间,但不同意更抽象的概念。即使你承认常识理论中的一些重叠和歧义是不可避免的,研究人员真的能确定人工智能有常识吗?研究人员经常向机器提问以评估它们的常识,但人类在日常生活中的行为方式要有趣得多。人们运用一系列经过进化磨练的技能,包括辨别基本因果关系、创造性解决问题、估计、计划以及基本社交技能(如谈话和谈判)的能力。尽管这个列表可能很长且不完整,但人工智能在其创造者宣布之前很久就应该在机器常识研究中取得同样的成就。越来越明显的是,即使是变形金刚在推进NLP系统方面的效率也不高。变形金刚越来越大,越来越耗电,高效的训练需要大量数据。然而,到目前为止,它已被证明无法理解人类常识的细微差别。即使是深度学习的先驱似乎也认为,在今天的神经网络能够实现这样的飞跃之前,可能需要进行新的基础研究。根据这个新研究领域的成功程度,我们无法判断机器常识是五年后还是五十年后。
