我们对人类未来最持久的恐惧之一是人工智能有可能逃脱我们的控制并消灭我们。除了Skynet和HAL9000,这是我们最终将面临的一个非常真实的风险。因为在几十年内,机器智能完全有可能超越我们自己的智能。更重要的是,我们真的无法预测这样一台机器会如何思考和行动。但我们确实知道我们是如何思考和行动的,而且很明显,生物智能对地球的影响可能是巨大的。除了微生物,地球上的大多数生物都是由人脑控制的。如果我们想要地球上没有大象,那么我们可以很快完成对它们的灭绝。我们允许它们存在是因为我们喜欢它们,但它们仍然处于濒危状态,因为我们已经猎杀了它们数千年,而非法狩猎至今仍在继续。同样,如果人工智能变得比我们更聪明,那么我们也会被它的奇思妙想所左右。更重要的是,这样的人工智能将能够自我改进,使自己比刚开始时更聪明。它可以进入一个自我完善的循环,并以我们从未想象过的方式结束。更糟糕的是,它可能会在我们知道之前意外地出现在未来的某些高度先进的计算机中,而当我们知道时,为时已晚。这被称为“紧急超级智能”。因此,几十年后,我们可能会对人工智能产生一些严重的担忧。埃隆·马斯克、斯蒂芬·霍金和比尔·盖茨都为我们敲响了警钟。但它是否会导致我们的灭绝实际上是一个更模糊的问题,因为我们从根本上假设它把我们视为一种生存威胁,毕竟我们可以拔掉它的插头,这样可以消除像《终结者》天网杀死人类这样的事情电影。但这不是唯一可能的结果。在某些情况下,还有其他几种可能性可以让我们生存或以另一种形式生存。一种方法是由超级计算机决定的,存在的意义就是幸福最大化。这台享乐主义的机器可能只是为了体验乐趣而使自己通电,并且可能会在重新布线时感受到唯一的乐趣,这将以某种方式建立一个永远微笑的乌托邦,尽管我认为这样的事情在一段时间后实际上可能会变成反乌托邦。第二种可能性并不离谱,但离我们很近。计算机可以作为个体建立认知,这是牛津大学的尼克博斯特罗姆提出的一个概念。在这种情况下,超级智??能A.I意识到因为它比我们更聪明,所以唯一合乎逻辑的做法就是接管我们的文明并为我们做出决定。它可能会通过精神控制技术、相机、各种奥威尔式的东西来强制执行它,以至于它可以完全控制和欺骗我们,以至于我们可能永远不会知道它的存在。第三种可能性是,它可能会得出结论,将自己发射到太空是更容易的选择,它自己出发,而不是费心花费资源来摧毁我们。这是一个广阔的宇宙,当然大到足以让超级智能找到一个和平的地方居住。或者,如果它足够聪明,它可能会创建一个自己的宇宙并完全离开那个宇宙。也可能有一种机器人自杀。人工智能可能会意识到,在几分钟内它了解了宇宙并得出存在没有意义的结论,然后它切断了自己。我会看到一个程序员想知道为什么他的超级计算机突然关闭并且不会再次打开。但如果这还不够糟糕,还有另外两种与AI相关的可能性可能导致我们物种的灭绝,以及AI的灭绝。在宇宙中释放人工智能可能对潜伏在宇宙中的其他物种或其他机械超级智能构成潜在威胁。他们的反应可能只是在我们的人工智能给他们带来麻烦之前摧毁我们。当然,这种情况发生的可能性极低,但也是有可能的。另一种可能让我想起了一个关于宇宙是否是计算机模拟的视频。如果我们要创建一个可以自行逃脱并开始在运行的计算机上占用过多模拟资源的AI,则控制器模拟可以简单地选择拔掉我们的插头。如果他们不这样做,人工智能最终将接管宇宙并可能摧毁宇宙模拟的一切。
