《芝麻街》里有一个游戏叫做“其中一个与另一个不同”。顾名思义,参加这个游戏的孩子需要找出几样东西中哪一个不同。对于人类幼崽来说,这个任务实在是太简单了,换个方式玩一百遍都未必会出错。然而,有了神经网络,游戏就没那么简单了。以功能强大的卷积神经网络(CNN)为例。经过训练的CNN可以完成一系列复杂的任务,甚至比人类做得更好,但最近的研究表明,CNN只能在非常有限的条件下区分两者。两个简单的模式是否相同。只要稍微改变这些条件,网络的性能就会相应下降。2018年的一项研究表明,虽然CNN能够区分(a)中两只狗的品种,但它不知道(b)(i)中的两种模式实际上是相同的,只是旋转了而已。这些结果在深度学习研究人员和认知科学研究人员中引发了争议。如果工程得到改进,CNN能否像人类婴儿一样区分“相同”和“不同”?还是CNN的抽象推理能力先天有限,设计得再巧妙,用多少数据来训练?不管哪种猜想是正确的,大多数研究人员都同意一点:理解异同是智能的重要标志,无论是人工的还是其他的。“不仅仅是你和我能够分辨‘相同’和‘不同’之间的区别。许多动物都可以,比如鸭子和蜜蜂,”在约翰霍普金斯大学研究视觉认知的查兹费尔斯通说。成功区分异同的能力可以看作是人类进行各种推理的基础。DeepMind研究员AdamSantoro表示,他的公司正在“以整体方式研究相似性-相似性”,即不仅限于视觉场景,还延伸到自然语言和物理交互。“当我告诉AI代理‘拿起玩具车’时,我的意思是让它拿起我们正在玩的玩具车,而不是隔壁房间的玩具车,”他解释道。去年10月的一项关于异同推理的研究也强调了这一点。“如果没有识别‘相同性’的能力,构建真正智能的视觉推理机的梦想就变得无望了,”布朗大学和其他机构的研究人员在文章中写道。自2013年以来,异同一直困扰着神经网络。当时的人工智能先驱YoshuaBengio和他的合作者CaglarGulcehre在论文《Knowledge Matters: Importance of Prior Information for Optimization》中的研究表明,CNN无法判断俄罗斯方块的形状是否相同。但这个盲点并没有阻止CNN主宰AI。卷积神经网络帮助AlphaGo击败了世界上最好的围棋选手,近90%的支持深度学习的Android应用程序都依赖于卷积神经网络。这种能力的扩散重新点燃了一些研究人员对探索神经网络无法探索事物的兴趣。CNN通过粗略模仿哺乳动物大脑处理视觉输入的方式来学习视觉处理。神经网络中的一层人工神经元检测原始数据中的简单特征(例如亮度和对比度的差异)。然后,神经网络将这些特征传递给连续的层,这些层将它们组合成更复杂、抽象的类别。根据布朗大学机器学习研究员MatthewRicci的说法,异同似乎是对CNN局限性的一个很好的检验,因为它们是“与图像特征无关的最简单的问题”。也就是说,两个对象是否相同并不重要。取决于它们是一对蓝色三角形还是一对红色圆圈。特征之间的关系比特征本身更重要。2018年,Ricci、JunkyungKim和ThomasSerre在合成视觉推理测试(SVRT)的图像上测试了CNN,SVRT是一组旨在探索神经网络抽象推理技能的简单模式。这些图案由成对的不规则形状组成,绘制为白色方块上的黑色轮廓。如果一对图案在形状、大小和方向上相同,则它们被归类为“相同”;否则,这对被标记为“不同”。里奇等人。发现在SVRT图像集中的新示例上训练CNN可以区分异同,准确率高达75%。但是,一旦以非常简单的方式修改形状(例如只是将它们变大,或使它们相距更远),CNN的准确性就会严重下降。研究人员由此得出结论,神经网络仍然侧重于特征,并不擅长学习“异同”等关系概念。去年,图宾根大学的ChristinaFunke和JudyBorowski的研究表明,将神经网络的层数从6层增加到50层可以将其在SVRT相似性-差异任务上的准确率提高到90%以上。然而,他们没有测试这个增加了层数的CNN在SVRT数据集以外的样本上的表现如何。因此,该研究没有任何证据表明更深层的CNN具有概括“相似性和差异性”定义的能力。今年早些时候,布里斯托大学的认知科学家GuillermoPuebla和JeffreyBowers进行了一项后续研究。以人类智能为例,普埃布拉说:“一旦人们理解了事物之间的关系,他们就可以将其应用于任何相关事物。”他认为CNN也应该遵守这个标准。Puebla和Bowers使用4种不同的初始设置(包括Funke和Borowski使用的一些设置)在SVRT相似性-差异任务的几种变体上训练了4个CNN。他们发现,图案低级特征的微小变化——例如将形状轮廓的粗细从一个像素更改为两个像素——通常足以使CNN的性能减半,从近乎完美到几乎无用。这对人工智能意味着什么?不同的人有不同的答案。Firestone和Puebla认为,最近一些研究的实验结果表明,当前的CNN缺乏基本的推理能力,无法通过添加更多数据或设计更复杂的训练来解决这个问题。Puebla说:“虽然CNN越来越强大,但不太可能解决区分异同的问题,或许引入其他方法可以解决,单靠CNN是没有希望的。”Funke同意Puebla的结论。但她建议:“在声称深度卷积神经网络无法学习概念时要非常谨慎。”DeepMind研究员Santoro对此表示赞同:“Alackofevidence并不代表证据不存在,神经网络一直都是这样。”桑托罗指出:神经网络在数学上已经在原则上表明能够逼近任何函数,他说:“研究人员在这方面需要做的是确定函数所需的实际条件。”里奇认为:任何机器要学会区分异同,都需要学习本身在理解上有所突破。人类幼崽只需一场比赛就能分辨异同,无需长期训练。鸟类、蜜蜂和人类都可以通过这种方式学习,许多超越辨别异同的认知任务也是如此。“我不认为有很多问题可以完全解决,直到你弄清楚如何从少量样本和新数据样本中学习,”Ricci说。
