当前位置: 首页 > 技术突破

现有技术可以提供人类水平的智能?

时间:2024-02-27 18:12:22 技术突破

  现在,人们广泛认识到,近年来人工智能取得了迅速的进步。现在,AI的许多应用程序在特定任务(例如游戏和诊断系统)上的表现都超过了人类。在过去的十年中,通过使用数据驱动的方法以机器学习技术和算法为中心,大多数是通过快速进步实现的。但是,尽管有所有欣喜若狂,许多AI研究人员认为,仅机器学习不足以产生人类水平的智能。人类水平的智力已被称为强大的AI或人工通用智能(AGI)。

  人类有能力获得并将一般知识应用于各种主题领域的问题解决问题。其中一些是由所有人类收购的,例如步行和说话。一些人类通常作为其职业的一部分获得专业知识,例如医学外科医生,土木工程师或卡车司机。一般的情报使我们能够在需要时将广泛的认知能力结合起来,并无缝从一个知识任务划和另一个知识任务,以促进解决问题。

人类水平的智力已被称为强大的AI或人工通用智能(AGI)。

  但是,尽管AI取得了惊人的进步,但AGI仍然被视为还要实现的方向。在本文中,我简要解释原因。在后续文章中,我将描述将来可能发生的途径。

  当前的AI范式 - 深度学习

  在过去的五年中,AI产生了巨大影响。几乎没有AI应用程序获得媒体报道,并且启动活动越来越多,并且在该领域蓬勃发展。例如,根据这份报告,与2017年相比,2018年AI相关公司的活动增加了72%。

  机器学习是AI的一个分支,一直是这种增加活动的催化剂。这个术语是指使机器能够学习而无明确编程的方法。机器学习中使用的主要范例是人工神经网络(ANN)。自1960年代以来,ANN的概念已被实验地使用,其起源归功于人类脑中神经元的运作,但是在过去的十年中,它们通过称为深度学习的神经网络体系结构来实现。这样的网络由一个称为“隐藏的艾尔人”的层次结构组成,因此每个层都可以帮助确定正在研究的模式的更抽象的表示。使用这种方法,它们可用于识别模式,就像人类可以识别的方式一样,例如人们的脸等。这会产生影响,因为早期的ANN是基于仅使用单层神经元的Perceptron软件,并且无法访问训练系统来完成这些任务所需的大量数据。但是,深度学习算法使用ANN的多层结合了多种数据 - 现在通过万维网上的社交网络和商业网站可用。他们通过从环境中从感官输入中收到的微调参数来提高性能。

  通过在图像识别中使用成功的模式匹配范式,深度学习开始在2012年产生重大影响。从那以后,它的成功已扩大到其他领域。使用深度学习的应用程序已在商业,商业和许多其他领域(例如医疗保健)中广泛使用。随着算法的改善,硬件变得越来越强大,许多新应用程序将出现,并且AI将变得无处不在 - 如果还没有。深度学习的许多特定应用现在都优于人类。例如,AI国际象棋在不久前超越了人类。但是对于Go来说,这是一场非常复杂的游戏,起源于中国,认为AI不太可能击败大师多年。但是,由Google DeepMind开发的一个名为Alphago的AI计划在2016年击败了统治的人类冠军。它通过研究人类专家的举动并通过许多时间来对抗自己的许多时间来实现这一目标。实际上,它是其自己的老师,使用了称为强化学习的范式。这是一种学习,它在与自身对抗时从自己以前的动作中学习。

  深度学习的缺点

  尽管深入学习AI取得了惊人的成功,但一些专家质疑这种范式是否足以满足人类水平的智能。例如,深度学习网络的著名研究人员Francois Chollet认为,您不能仅通过扩展当今的深度学习技术来实现一般智能。

  这项技术还有其他挑战。安妮的缺点之一是,他们在解释和使他们的决策推理透明时不足。它们是黑匣子架构。在医疗保健诊断系统等应用程序中,这尤其有问题 - 从业人员需要了解他们的决策过程。正如J. Brockman [1]所说,Ann缺乏透明度的原因是:“它们以统计或模型盲模式运行,这与将函数拟合到数据点云大致类似”。这并不奇怪,因为它们是数据驱动的统计数字cruncher,他们对正在发生的事情几乎没有因果关系。这意味着没有因果推理的痕量背部设施,因此它们不能作为人类级AI的模型。了解决策背后的推理可以构成解释的基础,例如:为什么系统要求输入信息,或“系统如何得出其结论”。解释被认为是AI改进的非常重要的组成部分。如此之多,以至于DARPA(国防先进的研究计划局)一段时间以来一直认为当前的AI技术将来很重要,但将其黑匣子性质视为对使用该技术的严重障碍。DARPA是调查新技术的美国国防部的一个部门。DARPA在2016年8月宣布,他们将提供一系列名为“可解释人工智能(XAI)”的新项目的资金。他们说,这些项目的目的是创建工具,使AI计划的决定的接收端使人能够了解该决定背后的推理。我已经写过有关提高AI程序重要性透明度的文章,因为 因此,深度学习系统有时可以做出不可预测的决策,并且对这些系统的信任对于他们的接受至关重要。

双语语言扬声器通常会发现学习新语言更容易

  似乎很惊讶的是,较老的前几代人的AI(Good of Fashioned AI)确实具有一些有限的解释功能,因为他们的知识是代表和操纵的明确方式。但是Gofai系统的学习能力非常有限。某些Gofai系统运行良好,并且今天仍然如此。但是他们无法学习成为对他们接受的严重障碍。如果没有学习能力,他们将无法适应环境的变化,这是自动驾驶汽车,图像识别,机器人技术和其他AI学习系统的关键组成部分。

  深度学习足以提供AGI吗?

  地平线上有一些令人鼓舞的迹象。例如,DeepMind的Demis Hassabis表示,他认为AGI的关键在于他所说的转移学习。这是一种在第二个相关任务上重新训练的模型,该技术可以重新使用。当人类有时学习新任务时,这种技术是从人类那里借来的。例如,研究表明,双语语言讲者通常会发现学习新语言更容易,因为可以重新应用双语的先例知识,并促进新语言的学习过程,因为他们意识到需要学习的必要性熟悉一种语言的说话者的结构和语言语法不会。

  当应用于机器学习时,这会导致人们普遍认为,从一项任务中学到的先例知识将有助于更快地进行培训,并且需要比第二个相关任务的从头开始训练的训练更少的监督。但是,要转移学习以导致AGI,它必须能够在广泛的主题领域中转移学习。正如哈萨比斯(Hassabis)所说:“我认为进行转移学习的关键将是获取概念知识,而概念知识则从您从何处学习的感知细节中抽象出来。”他还承认,对于AI社区而言,这仍然是一个巨大的挑战。正如他所说:“当任务密切相关时,它运行良好,但是转移学习变得更加复杂”。

  因此,许多高级从业人员对AGI曾经使用深度学习有疑问。但是,我将在下一篇文章中讨论其他可能的AGI途径。

  参考

  [1] Brockman,J。可能的思维25种观察AI的方式。Pearl,J。2019年撰写的章节。

  基思·达林顿