当前位置: 首页 > 科技观察

人工智能会带来毁灭吗?对“人工智能消亡论”的质疑与反思

时间:2023-03-13 20:24:21 科技观察

在电影《异形:契约》中,迈克尔·法斯宾德饰演的仿生大卫表面上对人类友好,但实际上他通过一系列行为为人类行事.人类带来灾难。现实中,霍金、马斯克、比尔盖茨等名人都曾告诫人们警惕人工智能可能带来的危害。对于“人工智能消亡论”的支持者来说,当人工智能发展到一定阶段时,可能会将人类视为可以被淘汰的潜在对象。正如一位著名的AI风险倡导者所说,“AI不恨你,也不爱你,但你是由原子构成的,它可以将它们用于其他目的”(Yudkowsky,2008年)。在本文中,我将首先介绍人工智能灭绝论的基本论点,然后提出两个问题。需要说明的是,这样的质疑并不是为了证明人工智能湮灭论是完全错误的,而是为了让该理论更加完备合理,从而带给人们更加严肃的思考。人工智能湮灭论对于人们来说,人工智能将在智能方面超越人类已经不是什么秘密了。人们对人工智能能够解决某些复杂的能力感到惊叹,但人类对人工智能在认知领域的进展仍然充满好奇和警惕。这样一种态度的背后,是人类对智力与良心之间不一致关系的理解,一个在智力上超越人类的存在,未必就是善良的。正如NickBostrom在他的书《超级智能》中所说,如果超级智能是仁慈的,那很好,但没有理由认为人工智能一定是仁慈的。我们完全可以想象,当人工智能认为有必要破坏人类赖以生存的资源时,人工智能就会“毫不留情”地执行这个想法。尼克·博斯特罗姆表示,人工智能有能力决定未来地球上的生命起源。当他们认为非人类生命将对地球最有利时,可以预见人工智能将推动人类灭绝。对此,有学者提出质疑,是否可以设计某些“仁慈测试”来检验人工智能的危害性。人们可以将AI置于受控、安全的环境(“盒子”)中,并在通过测试之前反复测试其安全性。“盒子”本身需要尽可能还原真实环境,以保证人工智能的仁慈和安全得到足够真实的检验。等AI通过测试,对人类生命没有威胁后,我们就可以开箱放行了。然而,该测试提案遭到了很多批评和质疑,博斯特罗姆表示,我们可以怀疑AI是否会通过撒谎逃出“盒子”的方式通过测试。正如人类可以使用说谎等不光彩的手段达到目的一样,人工智能也有能力通过假装对人类友好来实施灭绝人类的计划。甚至,在通过考验后的很长一段时间内,人工智能都可以与人类和谐共处,赢得人类的信任。另一种可能是,基于人工智能的快速发展和变化,它们可能会像《异形:契约》中的仿生大卫一样,基于现实的变化颠覆以往对人类的认知,将人类视为一种威胁。因此,通过仁爱测试并不能保证人工智能未来的安全。基于这些原因,我们有理由对人工智能灭绝论给予足够的重视。人工智能的威胁和休谟问题博斯特罗姆似乎与休谟问题具有相同的逻辑,即人工智能可能欺骗人类通过仁慈的考验。休谟指出,当我们通过对过去的经验进行概括来得出未来的结论时,我们不得不面对概括的风险。例如,我们不能仅仅因为太阳升起999次就认为明天太阳会第1000次升起;同样,欧洲人曾经认为天鹅只是白色的,因为他们只见过白色的天鹅。然而,当黑天鹅出现后,他们之前的推论被证明是错误的。同样,博斯特罗姆对人工智能的道德性也有同样的质疑。即使人工智能可以在人们的日常生活中显得善良可靠,但我们仍然不应忽视人工智能在未来成为人类威胁的可能性。这样的警告让人类在面对人工智能时不得不陷入进退两难的境地。一方面,我们可以安心享受人工智能提供的便捷服务;谨防人工智能的“背叛”。但是,正如休谟问题所指出的那样,我们永远无法正确指出明天太阳是否会升起,也无法判断未来人工智能是善是恶。这样的质疑点出了人们对人工智能的轻信,但是并不能下定论。当然,我们也可以发现,人类在日常生活中无时无刻不在面临这样的“不确定性”。没有人能够真正预测未来会发生什么,就像我们不能排除今天开车出车祸的可能性一样。即使在知道人工智能可能存在风险后,一些人仍然愿意承受这种风险,享受人工智能带来的便利。推测超级智能的不可能性不同于休谟问题的归纳性质。爱尔兰国立大学戈尔韦分校的约翰丹纳赫教授对人类能否真正理解人工智能的思维表示怀疑。我们可以看到,大多数关于人工智能威胁的理论都是基于拟态逻辑。人们想象一个可能的世界,并在其中推断出人工智能背叛人类的可能性。然而,这样的推论(如博斯特罗姆提出的假说)只是从人类的角度出发,基于人工智能的技术和现实的假设;怀疑这样的猜测是否真的还原了人工智能的思维方式?人工智能在演绎中会表现到什么程度?英国学者凯文·沃维克曾说过,“我们无法真正理解超级智能为何会做出这样那样的决定。当一台机器以超出我们自由度的方式思考时,我们如何才能理解、推测它的想法,甚至与之交流呢?关于讨价还价?”与人类想象中的其他超级智能,如上帝一样,不同的是,人工智能可能是全知全能的,但其目的并不像全善的上帝那样创造和维持世界的有序运行。通过观察自然界,我们可以发现某些世界所遵循的规律,并推测这些规律是上帝设计的。但是,我们没有理由相信人工智能会遵守和维持这些规律。相反,人工智能具有随时破坏和制定新法规的能力。正因为如此,我们有理由怀疑科学家是否应该暂停人工智能的发展。更可怕的是,如果博斯特罗姆的假说成立,那么我们不知道人工智能是否已经悄然背叛了人类。当然,人工智能的拥护者会说,这种怀疑忽视了人工智能给人类带来的巨大便利,以及它带来的技术进步。至少在短期内,我们看不到人工智能明显背叛人类。但是,谁也不能保证未来人工智能不会给人类生活带来危害。或许,人工智能目前给人类带来的帮助,与其可能带来的危害相比,根本不值一提。结论虽然我们可以质疑博斯特罗姆的“人工智能灭绝论”,但我们不应忽视该理论的严重性。多领域专家指出,未来人类可能需要与机器共同生活,以延长人类寿命。但是,与功能单一明确的机器不同,人工智能更加全面多样。不可否认,人工智能会给人类带来更多的好处。但人类是否真的能相信在智力上远超我们的人工智能,人类设计的仁慈测试似乎并不能保证人工智能的仁慈;那么如何保证人工智能的持续进步不会对人类的未来造成毁灭性的打击,将是人类需要长期思考的问题。参考资料:Bostrom,N.(2014)Superintelligence:Paths,Dangers,Strategies。牛津:OUPDanaher,J.(2015)。为什么AI末日预言者就像怀疑论者,以及为什么它很重要。思维与机器,25(3),231-246。Yudkowsky,E.(2008)人工智能作为全球风险中的积极和消极因素。Bostrom,N和Cirkovic,M.(eds)(2008)全球灾难性风险。牛津:OUP