当前的人工智能(AI)正处在一个奇妙的时代,往往有惊人的隐性知识(波兰尼的复仇与新人工智能)奇缘和隐性知识,https://bit.ly/3qYrAOY),但可以肯定地假设计算机在未来相当长的一段时间内无法做到这一点。最近出现了基于Transformer架构的大规模学习系统的有趣研究,该系统基于大型网络规模的多模态语料库和数十亿参数的训练。典型的例子是大型语言模型,响应任意形式文本提示的GPT3和PALM,将文本转换为图像的语言/图像模型DALL-E和Imagen(甚至是具有一般行为的模型,如GATO)。大型学习模型的出现从根本上改变了人工智能研究的性质。研究人员最近在使用DALL-E时,似乎已经开发出自己独特的语言,如果人类能够掌握它,或许就能更好地与DALL-E进行交互。一些研究人员还发现,可以通过在提示中加入某些神奇的咒语(例如“让我们逐步思考”)来提高GPT3在推理问题上的表现。现在像GPT3和DALL-E这样的大规模学习模型就像是“外来物种”,我们必须尝试解码它们的行为。对于人工智能来说,这无疑是一个奇怪的转折点。自诞生以来,人工智能一直是介于工程学(具有特定功能的系统)和科学(发现自然现象规律)之间的“无人区”。人工智能的科学部分源于其最初的主张,即洞察人类智能的本质;工程部分源于对智能功能(让计算机表现出智能行为)的关注,而不是对人类智能的洞察。目前的情况正在迅速变化,尤其是人工智能已经成为大规模学习模型的代名词。目前的现状是,人们对训练好的模型如何具有特定功能,甚至它们可能具有的其他功能(例如PALM所谓的“解释笑话”的能力)一无所知。甚至它们的创造者也常常不知道这些系统可以做什么。探索这些系统以了解其“功能”的范围已成为人工智能研究的最新趋势。越来越明显的是,部分人工智能正逐渐偏离其工程根源。今天很难将大型学习系统视为传统意义上具有特定目标的工程设计。毕竟,不能说自己的孩子是“设计出来的”。工程领域通常不会庆祝设计系统的意外新特性(就像土木工程师不会兴奋地庆祝他们设计用于抵御5级飓风的桥梁被发现漂浮一样)。越来越多的证据表明,对这些经过训练(但未经设计)的大型系统的研究注定会成为一门自然科学:观察系统的功能;做消融研究;对最佳做法进行定性分析。考虑到现在正在研究的是表面而不是内部,这类似于生物学中试图在没有实际证据的情况下“弄清楚”的雄心勃勃的目标。机器学习是一项研究工作,更多地关注系统为什么会做它正在做的事情(将其视为对大型学习系统进行“MRI”研究),而不是证明该系统旨在这样做。从这些研究中获得的知识可以提高微调系统的能力(就像医学一样)。当然,与内在环境相比,对外表的研究可以进行更有针对性的干预。人工智能成为一门自然科学也将对整个计算机科学产生影响,考虑到人工智能将对几乎所有计算领域产生巨大影响。计算机科学的“科学”二字也遭到质疑和嘲笑。但现在情况发生了变化,因为人工智能已经成为一门研究大规模人工学习系统的自然科学。当然,对于这种转变可能会有很多阻力和意见,因为计算机科学长期以来一直是“通过构造纠正”的圣杯,从一开始计算机科学就相当于生活在一个充满激励的系统中。它像训练有素的狗一样绝对正确,像人一样正确。早在2003年,图灵奖获得者LeslieLamport就计算的未来属于生物学而非逻辑的可能性敲响了警钟,称计算机科学将使我们生活在顺势疗法和信仰治愈的世界中。他当时的焦虑主要是关于人类编程的复杂软件系统,而不是今天更神秘的大规模学习模型。值得考虑的是,当从一个主要关注有意设计和“构造正确性”的领域转移到一个寻求探索或理解现有(未设计的)人工制品的领域时,它所带来的方法论转变是值得考虑的。与研究野生生物的生物学不同,人工智能研究的是人类创造的缺乏“设计感”的人造产品。对于不被理解的人造产品的创建和部署,肯定会出现道德问题。大型学习模型不太可能保证支持可证明的能力,无论是在准确性、透明度还是公平性方面,但这些都是部署和实践这些系统的关键问题。虽然人类也无法提供证据证明自己的决定和行为的正确性,但有法律制度可以让人类遵守罚款、训斥甚至监禁等惩罚。而对于大型学习系统,什么是等效系统?计算研究的美学也会发生变化。目前的研究人员可以通过论文中包含的定理与定义的比率来评估论文。但随着计算机科学的目标越来越像生物学等自然科学的目标,需要开发新的计算美学方法论(因为零定理与零定义尺度不会有太大区别)。有迹象表明,计算复杂性分析在人工智能研究中已退居二线。
