当前位置: 首页 > 科技观察

人类不必为强大的人工智能发展而担忧_0

时间:2023-03-16 16:05:27 科技观察

【.com快考】如今,很多人担心人工智能技术会发展成“邪恶的机器人”,甚至达到称霸世界的地步。但不要害怕,那不会发生。人工智能已经进入人们的工作和日常生活。它正在推动医药、天气预报、工厂自动化、自动驾驶汽车等多种行业的进步。甚至高尔夫球杆制造商也在使用人工智能来设计球杆。事实上,人们每天都在与人工智能互动。谷歌翻译帮助人们浏览外国网站并与不同国籍的人交谈。AI供应商已将语音识别内置到许多应用程序中。人们每天都使用Siri和Alexa等语音助手来帮助完成简单的任务。面部识别应用程序自动标记照片,人工智能系统在围棋和德州扑克等复杂游戏中击败职业玩家,工厂中的机器人执行重复性任务。人工智能的最新进展让人们了解未来在哪里。几十年来,科幻作家一直在思考这个问题。在一些人描述的未来世界中,将会有强大而友善的智能机器人,比如电影《星球大战》中的C3PO机器人。也有人形容智能机器人既不友善也不邪恶,而是有着类人的弱点,比如西方世界的类人机器人,它们有自己的意识和情感,不愿被人类奴役。尽管如此,在其他作家的作品中,也有与人类为敌的“邪恶机器人”,比如电影《2001年的哈尔:太空漫游》和电影《终结者》中的智能机器人。对人工智能潜在危险的猜测并不局限于科幻小说的领域。许多领先的技术专家预测,随着人工智能系统变得更加智能,机器人最终将主宰世界。特斯拉创始人埃隆马斯克曾表示,人工智能是人类“最大的生存威胁”,它对文明的存在构成了根本性风险。已故著名物理学家史蒂芬·霍金曾说过:“这可能预示着人类的终结。”人类未来研究所创始人、哲学家尼克·博斯特罗姆认为,人工智能是人类历史上最大的威胁,它的威胁甚至比核武器还大。AIvsNarrowAI技术专家和科幻作家担心的AI系统是强人工智能(artificialgeneralintelligence,AGI)的例子。强大的人工智能(artificialgeneralintelligence,AGI)系统具有人类共有的能力:推理、处理视觉、听觉和其他输入,以及适应各种环境。这些系统与人类一样,拥有丰富的知识和沟通技巧,涉及各种各样的事件和主题。科幻小说中虚构的强人工智能系统(即虚构的邪恶机器人)与今天的人工智能系统有两个显着区别:首先,今天的每个人工智能系统只能执行狭义定义的任务。例如,一个已经学会给照片命名的人工智能系统不能做任何其他事情,甚至不能分辨大象和狗。它不能回答问题、检索信息或进行对话。其次,今天的人工智能系统对世界的常识知之甚少,因此无法基于这些知识进行推理。例如,面部识别系统可以识别特定的人,但对其他人一无所知。它不会像人类一样看、听、吃、睡、工作、犯罪或坠入爱河。今天的AI系统是狭义的AI系统,这是未来学家RayKurzweil在2005年创造的一个术语来描述这些区别:机器人只能执行一项特定任务。虽然狭义AI系统的性能可以使它们看起来很智能,但实际上并非如此。相比之下,人类和虚构的智能机器人可以执行各种各样的任务。他们不仅可以识别面孔,还可以阅读报纸、做饭、系鞋带、讨论时事以及执行许多其他任务。虚构的智能机器人还基于人类对世界的常识进行推理,将常识、经验和背景知识应用于各种各样的任务。例如,当一个人从柜子里拿出一个玻璃杯时,它会使用它对重力的了解,并且知道如果抓握不够牢固,玻璃杯就会从手中掉落。人类不是从重力的定义或数学方程式的描述中获得知识,而是在不知不觉中从现实生活中体验。人们每天都使用这些知识来完成许多其他任务。新的人工智能范式人们面临的最大问题是,今天狭义的人工智能系统是否会演变成具有人类智能的智能机器人,可以使用常识推理来执行许多不同的任务。当今大多数开创性的人工智能系统都使用一种称为“监督学习”的机器学习形式,其目的是学习一种可以识别信息输入输出类别的功能。例如,面部识别系统将图像作为输入并识别图像中的人名。“强化学习”也是如此,其目标是学习一个可以预测给定状态下最佳动作的函数。多伦多大学机器学习专家GeoffreyHinton表示,他怀疑当前的模型,包括监督学习、强化学习和自然语言处理,是否会导致强大的人工智能(以及科幻小说中的邪恶机器人)。Hinton表示,采用AI可能需要放弃目前占主导地位的监督学习范式。Facebook首席人工智能科学家YannLeCu也表示,监督学习和强化学习永远不会创造出强大的人工智能,因为它们无法被用来创造对世界具有常识的系统。一些人工智能研究人员已经开始探索一些新的方法。在评估这些新方法的可行性时,必须记住,对狭义AI成就的热情不应转化为对这些新方法的乐观思考,因为现有的狭义AI方法将面临构建强大AI系统的挑战。一个死胡同。像人类一样学习许多研究人员将人类学习描述为组合学习:学习许多技能,然后将它们组合起来学习新技能。人类将学习关于世界的概念、规则和知识,这些技能将随着人们学习执行不同的任务而转移。根据这些研究人员的说法,常识性AI推理(以及AI和恶意机器人)的关键在于构建能够像人类一样进行组合学习的AI系统。这个想法是让人工智能系统学习概念和规则作为构建块,使其能够学习更高层次的概念和更高层次的规则。这种方法最大的问题是人工智能系统在理解人类如何获取常识知识方面进展缓慢。四十年前,关于人工智能系统回答诸如“德国牧羊犬的耳朵是什么形状?”等问题的能力展开了长时间的辩论。尽管一些人工智能和认知科学领域的领军人物参与了分析和辩论,但仍然没有确定的答案。人工智能能够回答关于狗耳朵形状的问题,只是大量具有代表性的场景和推理过程中的一个。此外,甚至不知道这些方案和推理过程是天生的还是后天培养的。五十多年来,这一直是学术界争论不休的话题,至今仍无定论。那么,要了解人们如何看待人工智能和邪恶机器人的真正进展,还需要多长时间?按照目前的进展速度,这可能需要几千年的时间,也可能永远不会发生。深度学习一些研究人员认为,虽然监督学习和强化学习本身就是构建人工智能系统的死胡同,但深度学习可能会引领人们到达目的地。YannLeCun和GregBrockman都提出了扩展无监督学习系统的想法,希望能够神奇地掌握常识并根据这些知识学会推理。可扩展性的一个很好的例子是GPT-3系统,它的能力是GPT-2系统的100倍,而GPT-2系统本身的功能是原始GPT系统的10倍。GPT-2系统表现出惊人的人声能力(即使不一致),而GPT-3系统产生了更好的结果。开发GPT系统的OpenAI研究人员认为,这是一种随着网络规模的增加而产生的新兴能力。GPT-3系统无疑具有很强的提取其训练文本统计规律的能力,也可能具有记忆小片段文本的能力。然而,它不具备学习常识的能力,也不具备基于这些知识进行推理的能力。在这个阶段,没有证据表明可以从这种方法中学到常识和推理技能,也没有任何理由相信它会发生。YoshuaBengio提出了一种新颖的深度学习架构,旨在利用深度学习突破狭义人工智能的局限性。目标之一是学习可以帮助AI系统进行组合学习的更高层次的构建块。这是一个有趣的想法。业界专家提出的另一种模拟人脑的强人工智能方法是了解人脑的物理结构,进而建立人工智能系统的模型。经过几十年的研究,关于人脑如何处理信息,人们只知道一些非常基本的事实。例如,众所周知,大脑皮层可以静态和动态地存储学习到的知识,基底神经节通过强化学习处理各种目标并选择信息,边缘大脑结构连接大脑和身体并产生动机、情感和价值东西的。对大脑神经元进行建模的想法已经存在了40多年,但尚未获得真正的关注,部分原因是对人脑的理解进展极其缓慢,并且没有具体的方法来对人的大脑进行建模在人工智能程序中做。知道的人脑。在这里似乎回到了原点,没有证据表明这种方法会成功。更快的计算机技术未来学家RayKurzweil长期以来一直认为,人工智能将作为更大、更快的计算机的副产品出现。他提出了“奇点”的想法,即计算机可以自行智能改进程序的时间点。他指出,一旦发生这种情况,人工智能系统的智能将呈指数级增长,很快就会达到超人智能。库兹韦尔预测,“奇点”将在2045年左右出现。也就是说,很难想象单靠处理能力如何能够创造出强大的人工智能。无论你使用的是1970年代的计算机,还是今天没有加载任何程序的先进计算机,这些计算机都无法做任何事情。如果任一计算机上都加载了文字处理程序,则只能执行文字处理。更新、更现代的计算机将能够更快地响应并处理更大的文档,但它们仍然仅限于文字处理。未来的计算机也是如此。处理速度更快的计算机本身不会产生人工智能。正如StevenPinker所说,“更强的处理能力并不是解决所有问题的灵丹妙药。“在不太可能出现强人工智能的情况下,编程和学习算法可能非常复杂,需要非常强大的计算机。强人工智能能否实现?狭义人工智能系统背后的技术无法发展为‘邪恶的机器人’。”有一些关于如何实现强人工智能的想法,但这些想法并不明确。自20世纪50年代末以来,人工智能研究人员就如何创造强大的人工智能提出了各种想法,但没有人能够成功,而且没有证据表明当前的想法更好。艾伦人工智能研究所首席执行官OrenEtzion表示,对实现强人工智能的乐观和恐惧都源于狭义人工智能系统的成功。这种对狭义人工智能的乐观情绪,自然会蔓延到对强人工智能前景的乐观情绪。人们可能一生都不会进行时间旅行。可以想象,科技会让人类进入冬眠或隐身状态,或者说心灵传送会让人类将人类的思想输入电脑,甚至可以逆转人类衰老的过程。如果是这样,那么人们应该把人工智能和“邪恶的机器人”归为一类。原标题:Don'tFearArtificialGeneralIntelligence,作者:SteveShwartz【翻译稿件,合作网站转载请注明原译者及出处.com】