如果您没有注意到,最近AI系统的表现越来越惊人。例如,OpenAI的新模型DALL-E2可以根据简单的文本提示生成引人入胜的原始图像。像DALL-E这样的模型让人更难否认AI可以具有创造力的观念。例如,考虑一下DALL-E富有想象力的演绎“穿着牛仔夹克的嘻哈母牛在录音室录制热门单曲”。或者对于更抽象的示例,请查看DALL-E对PeterThiel的旧台词“Wewantflyingcars,not140characters”的解释。与此同时,DeepMind最近宣布了一种名为Gato的新模型,它可以单手执行数百种不同的任务,从玩视频游戏到进行对话,再到用机械臂堆叠现实世界的积木。几乎所有以前的人工智能模型都能做一件事,而且只能做一件事——例如下棋。因此,Gato代表了迈向更广泛、更灵活的机器智能的重要一步。而今天的大型语言模型(LLM)——从OpenAI的GPT-3到谷歌的PaLM再到Facebook的OPT——都具有令人眼花缭乱的语言能力。他们几乎可以就任何话题进行细致入微的深入对话。他们可以自己制作令人印象深刻的原创内容,从商业备忘录到诗歌。举一个最近的例子,GPT-3最近有一篇写得很好的学术论文,目前正在接受同行评审,以便在知名科学期刊上发表。这些进步在AI社区引发了关于该技术发展方向的疯狂猜测和热烈讨论。一些可靠的AI研究人员认为,我们现在非常接近“通用人工智能”(AGI),这是一个经常讨论的强大、灵活的AI基准,可以在任何认知任务中胜过AI。人性。上个月,一位名叫BlakeLemoine的谷歌工程师戏剧性地声称谷歌的大规模语言模型LaMDA是有感知力的,从而成为头条新闻。对这种说法的抵制同样强烈,许多AI评论员直接否定了这种可能性。那么,我们如何看待人工智能最近取得的所有惊人进展呢?我们应该如何思考人工智能和人工智能感知等概念?关于这些主题的公共讨论需要以几种重要的方式进行重构。认为超级智能人工智能指日可待的过度兴奋的狂热者,以及将人工智能最近的发展视为炒作的轻蔑的怀疑论者,在他们对现代人工智能的一些基本方面的思考中都偏离了常态。AGI是一个不连贯的概念经常被忽视的AI基本原则之一是AI从根本上不同于人类智能。过于直接地将人工智能与人类智能进行比较是错误的。今天的人工智能不仅仅是人类智能的“进化程度较低”的形式。明天的超高级人工智能也不仅仅是人类智能的更强大版本。许多不同的智能模式和维度都是可能的。最好不要将人工智能视为对人类智能的不完美模仿,而是将其视为一种独特的、外来的智能形式,其轮廓和能力在根本上与我们不同。为了使这一点更具体,请简要考虑当今人工智能的状态。今天的人工智能在某些领域远远超过人类的能力,而在其他领域则远远落后。举个例子:半个世纪以来,“蛋白质折叠问题”一直是生物学界的一大挑战。简而言之,蛋白质折叠问题需要根据蛋白质的一维氨基酸序列预测其三维形状。几十年来,世界上几代最聪明的人共同努力解决了这一挑战。2007年的一位评论家将其描述为“现代科学中最重要的未解决问题之一”。2020年底,DeepMind的一个名为AlphaFold的人工智能模型为蛋白质折叠问题提供了解决方案。正如长期从事蛋白质研究的约翰·莫尔特所说,“这是历史上第一次由人工智能解决严重的科学问题。”揭开蛋白质折叠的神秘面纱需要空间理解和高维推理形式,这完全超出了人类思维的范围。掌握范围。但并没有超出现代机器学习系统的掌握范围。同时,任何健康的人类儿童都拥有远超世界上最尖端人工智能的“具身智力”。从很小的时候起,人类就可以毫不费力地做一些事情,比如玩接球、走过陌生的地形,或者打开厨房的冰箱吃点零食。事实证明,人工智能很难掌握这些身体能力。这被封装在“Moravec的悖论”中。正如AI研究人员汉斯·莫拉维克(HansMoravec)在1980年代所说:“在智力测试或国际象棋游戏中让计算机具有成人水平的表现相对容易,但很难或不可能让计算机具备成人水平的技能——岁。”.perceptionandmobility.”Moravec对这个非直觉事实的解释是进化论的:“在人类大脑的大型、高度进化的感觉和运动部分,十亿年关于世界本质的知识以及如何在其中生存的经验.[另一方面,]我认为,我们称之为高级推理的深思熟虑的过程是人类思维中最薄的一层,它之所以起作用,只是因为它变得更老、更强大,尽管通常由无意识的感觉运动知识支持。我们都是知觉和运动能力卓越的奥林匹克运动员,我们是如此优秀,以至于我们让困难的事情看起来很容易。“直到今天,机器人都在与基本的身体能力作斗争。就在几周前,一组DeepMind研究人员在一篇新论文中写道:“与非常年幼的孩子相比,当前AI系统对‘直觉物理学’的理解相形见绌。这一切的结果是什么?没有通用人工智能这样的东西。AGI既不可能也不可能。相反,它作为一个概念是不连贯的。智能不是单一的、定义明确的、可概括的能力,甚至也不是一组特定的能力。在最高层次上,智能行为只是一个代理获取并使用有关其环境的知识来追求其目标。因为有大量(理论上是无限的)不同类型的主体、环境和目标,所以智能可以以无数种不同的方式表现出来。AI大师YannLeCun总结得很好:“没有通用人工智能这样的东西......甚至人类都是专门的。“将“通用”或“真正的”人工智能定义为可以做人类可以做的事情(但更好)——认为人类智能是一般智能——是目光短浅和以人类为中心的。如果我们把人类的智能作为人工智能发展的最终锚点和标准,我们将错失机器智能可能具有的一切强大的、深刻的、意想不到的、对社会有益的、完全非人类的能力。想象一下人工智能在原子层面上具有理解能力,并且可以极其准确地动态预测整个系统将如何随时间演变。想象一下,如果它能设计出一种我们将在大气中使用的精确安全的地球工程干预措施,在某些地方沉积一定量的某些化合物,从而抵消人类持续碳排放造成的温室效应,从而减轻全球变暖对地球的影响。地球表面。想象一个人工智能可以整合人体中的每一种生物和化学机制,以细致入微的方式深入到分子水平。想象一下,如果它可以因此开出适合每个人健康的饮食处方,可以查明任何疾病的根本原因,可以产生新的个性化疗法(即使它们尚不存在)来治疗任何严重疾病。想象一下,一个人工智能可以发明一种协议,以一种安全地产生比消耗的能量更多的方式融合原子核,从而将核聚变解锁为一种廉价、可持续、无限丰富的人类能源。所有这些场景在今天仍然是天方夜谭,对于今天的人工智能来说是遥不可及的。关键在于,人工智能的真正潜力在于路径——开发与人类所能做的任何事情都截然不同的新形式的智能。如果AI可以实现这样的目标,谁会在乎它在与人类整体能力相匹配的意义上是否“通用”?将我们自己定位为“通用人工智能”限制并削弱了这项技术的潜力。而且——因为人类智能不是不存在的一般智能——它首先在概念上是不连贯的。成为人工智能是什么感觉?这将我们带到了一个有关人工智能大局的相关话题,该话题目前正受到公众的广泛关注:人工智能是否具有感知能力,或者将来是否具有感知能力。谷歌工程师BlakeLemoine上个月公开断言,谷歌的一个大型语言模型已经变得有意识,引发了一波争议和评论。(在形成任何明确的意见之前,值得自己阅读Lemoine和AI之间讨论的完整记录。)大多数人——尤其是AI专家——认为Lemoine的说法是错误和不合理的。谷歌在其官方回应中表示:“我们的团队已经审查了布莱克的担忧,并告知他证据不支持他的说法。”斯坦福大学教授ErikBrynjolfsson认为,感知人工智能可能还需要50年的时间。加里·马库斯(GaryMarcus)插话称Lemoine的说法是“胡说八道”,并得出结论说“这里没有什么可看的”。整个讨论的问题——包括对专家的解雇——是,根据定义,感知的存在是无法证明的、不可证伪的和不可知的。当我们谈论感知时,我们指的是主体的主观内在体验,而不是智能的任何外在表现。没有人——无论是BlakeLemoine、ErikBrynjolfsson还是GaryMarcus——都能绝对确定一个高度复杂的人工神经网络在内部会经历或不会经历什么。1974年,哲学家托马斯·内格尔发表了一篇题为《成为蝙蝠是什么感觉?》的文章。作为20世纪最有影响力的哲学论文之一,这篇文章将众所周知难以捉摸的意识概念归结为一个简单、直观的定义:如果有某种东西愿意成为那个代理人,那么这个代理人就是有意识的。例如,作为我的隔壁邻居,甚至是他的狗,感觉就像什么;但作为他的邮箱是完全不同的。该论文的一个关键信息是,不可能以有意义的方式确切地知道成为另一个生物体或物种是什么样的。另一个有机体或物种越不像我们,它的内在体验就越难以接近。内格尔用蝙蝠的例子来说明这一点。他选择蝙蝠是因为,作为哺乳动物,它们是高度复杂的生物,但它们的生活体验与我们截然不同:它们会飞,它们使用声纳作为感知世界的主要手段,等等。正如Nagel所说(值得全文引用该论文的几段):“我们自己的经历为我们的想象提供了基础材料,因此想象的范围是有限的。想象一个人长着蹼状的手臂,使他不一个人可以在黄昏和黎明时飞来飞去,嘴里叼着虫子;一个人视力不好,通过反射的高频声音信号系统感知周围的世界;一个人整天倒挂在阁楼上。“就我所能想象的(不是很远)而言,它只是告诉我像蝙蝠一样行动会是什么样子。但这不是问题。我想知道蝙蝠成为蝙蝠是什么感觉。然而,如果我试着想象这个,我自己的精神资源是有限的,不足以完成这项任务。我不能通过想象对我目前的经验进行添加,或者通过想象逐渐从中减去片段,或者通过想象加、减、变的某种组合来做到这一点。“与蝙蝠相比,ANN对我们人类来说更加陌生和难以接近,蝙蝠至少是哺乳动物和碳基生命形式。同样,太多评论员在这个话题上犯的根本错误(通常甚至没有考虑然而)是假设我们可以简单地将我们对人类感知或智能的期望映射到人工智能上。我们无法以任何直接或第一手的方式确定甚至思考人工智能的内在体验。我们根本无法确定。以一种富有成效的方式接近?我们可以从图灵测试中得到启发,图灵测试于1950年首次提出。图灵测试经常被批评或误解,当然也不是完美的,它经得起时间的考验作为参考AI领域的重点,因为它捕获了关于机器智能本质的某些基本见解。图灵测试承认并接受了这样一个现实,即我们永远无法直接访问机器智能的内部体验人工智能。它的整个前提是,如果我们要衡量一个人工智能的智能程度,我们唯一的选择就是观察它的行为,然后做出适当的推论。(需要明确的是,图灵关心的是评估机器的思考能力,而不是它的感知能力;然而,就我们的目的而言,相关的是基本原理。)道格拉斯·霍夫施塔特特别雄辩地阐述了这个想法:知道当我跟你说话时,我是任何类似于你所谓的“思考”的事情都会发生吗?图灵测试是一个了不起的探测器——就像物理学中的粒子加速器。就像在物理学中一样,当你想了解原子或亚原子水平上发生的事情时,由于你无法直接看到它,你可以将加速粒子从感兴趣的目标上散射开并观察它们的行为。由此您可以推断出目标的内部性质。图灵测试将这个想法延伸到了头脑中。它将想法视为不直接可见但可以更抽象地推断其结构的“对象”。通过“分散”目标头脑中的问题,您可以了解其内部运作方式,就像在物理学中一样。“为了在关于AI感知的讨论中取得任何进展,我们必须将自己定位在可观察到的表征上,作为内部经验的代理;否则,我们就会在不严谨、空洞、死胡同的辩论中兜圈子。”ErikBrynjolfsson确信今天的人工智能没有感知力。然而,他的评论表明他相信人工智能最终将具有感知能力。当他遇到一个真正有知觉的AI时,他怎么知道?他会寻找什么?Youarewhatyoudo在关于AI的辩论中,怀疑论者经常用简化的术语来描述这项技术,以淡化其功能。正如一位AI研究人员在回应BlakeLemoine新闻时所说:“使用更高维的参数函数希望从符号和数据操作中获得意识、理解或常识是很神秘的。在最近的一篇博文中,GaryMarcus认为今天的人工智能模型甚至不是“远程智能”,因为“它们所做的只是匹配模式并从海量统计数据库中提取数据。”他认为谷歌的大规模语言模型LaMDA,只是一个“单词电子表格”。这种类型的推理具有误导性和微不足道的意义。毕竟,如果我们这样选择,我们可以用一种类似的简化方式来构建人类智能:我们的大脑”只是“以某种方式相互连接的大量神经元”,只是“我们头骨内的基本化学反应”的集合。重点。人类智能的力量和魔力不在于某种特定的机制,而在于以某种方式产生的令人难以置信的涌现能力。简单的基本功能可以产生深刻的智能系统。归根结底,我们必须以能力来判断人工智能。如果我们比较五年前的人工智能状态与今天的技术状态相比,毫无疑问,由于自我监督学习、变压器和强化学习等领域的突破,人工智能的能力和深度已经以显着(并且仍在加速)的方式扩展.AI不像人类智能。AI什么时候以及如果AI变得有感知力——用Nagel的话说,什么时候以及如果它曾经“喜欢某样东西”成为人工智能——它将无法与作为人类。人工智能是它自己独特的、奇怪的、迷人的、快速发展的认知形式。重要的是人工智能可以实现什么。在像AlphaFold这样的基础科学领域取得突破,应对气候变化等物种层面的挑战,促进人类健康和长寿,以及加深我们对宇宙运作方式的理解——这些结果是对AI的力量和复杂性的真正考验。
