人工智能(AI)的最终目标是机器可以具有类似于人类的一般智能 - 科学有史以来最雄心勃勃的人之一。在困难方面,它与其他伟大的科学目标相媲美,例如解释生命或宇宙的起源或发现物质的结构。最近几个世纪,这种对建造智能机器的兴趣导致了人脑模型或隐喻的发明。例如,在十七世纪,笛卡尔想知道齿轮,滑轮和管子的复杂机械系统是否可以模仿思想。两个世纪后,隐喻已成为电话系统,因为它们的连接可能比作神经网络。如今,主要模型是计算的,并且基于数字计算机。因此,这就是我们将在本文中解决的模型。
物理符号系统假设:弱AI与强AI
在1975年享有声望的图灵奖的演讲中,艾伦·纽维尔(Allen Newell)和赫伯特·西蒙(Herbert Simon)(Newell and Simon,1976年)提出了“物理符号系统”假设,“物理符号系统具有必要和足够一般智能行动的手段。”从这个意义上讲,鉴于人类能够以一般方式展示智能行为,我们也将是物理符号系统。让我们澄清纽威尔和西蒙指的是物理符号系统(PSS)时的含义。PSS由一组称为符号的实体组成,这些实体可以通过关系组合形成较大的结构(仅作为原子组合形成分子),并且可以通过应用一组过程来转换。这些过程可以创建新的符号,创建或修改符号之间的关系,存储符号,检测两个是相同还是不同的,等等。这些符号是物理的,因为它们具有潜在的物理电子层(对于计算机)或物理生物学层(就人类而言)。实际上,就计算机而言,符号是通过数字电子电路建立的,而人类则使用神经网络来建立符号。因此,根据PSS假设,只要可以处理符号,就不重要的是基础层(电子电路或神经网络)的性质。请记住,这是一个假设,因此,不应该被接受也不应拒绝先验。无论哪种方式,都必须根据科学方法对其有效性或反驳进行实验测试验证。AI正是专门用于试图在数字计算机背景下验证这一假设的科学领域,即验证正确编程的计算机是否能够具有一般智能行为。
指定这必须是一般智力而不是特定智力很重要,因为人类的智能也是一般的。表现出特定的智能是完全不同的事情。例如,能够在大师级级别下国际象棋的计算机程序无法打击器,这实际上是一个更简单的游戏。为了使同一台计算机播放检查器,必须设计和执行一个不同的独立程序。换句话说,计算机无法利用其下棋的能力作为适应跳棋游戏的一种手段。但是,对于人类而言,情况并非如此,因为任何人类国际象棋球员都可以利用他对该游戏的知识来在几分钟之内完美地玩跳棋。人工智能的设计和应用只能在非常具体的环境中聪明地行事,这与“弱AI”而不是“强ai”相关。Newell,Simon和AI的其他开国元勋指的是后者。严格来说,PSS假设是在1975年提出的,但实际上,它隐含在1950年代的AI先驱者,甚至是艾伦·图灵(Alan Turing)的开创性文本(Turing,1948,1950)上的智能机器上。
哲学家约翰·塞尔(John Searle)在1980年批评AI的一篇文章(Searle,1980年)中首先引入了弱AI和强大AI之间的区别,该文章当时引起了相当大的讨论,但今天仍然如此。强大的AI暗示着正确设计的计算机不会模拟思想,而是一个人?实际上是一个,因此,应该能够具有相等的智力,甚至能够优于人类。Searle在他的文章中试图证明强大的AI是不可能的,在这一点上,我们应该澄清,AI将军与强大的AI不同。显然它们是联系的,但只有从某种意义上说:所有强大的AI都必须是一般的,但是有一般的AIS能够进行多任务处理,但并不是强大的,虽然它们可以模仿与人类类似的一般智能的能力,但他们没有经历心态。
AI的最终目标(一种机器可以具有类似于人类的通用智能),是科学有史以来最雄心勃勃的人之一。在困难方面,它与其他伟大的科学目标相媲美,例如解释生命的起源或宇宙,或发现物质的结构
根据Searle的说法,弱AI将涉及构建程序以执行特定任务,显然无需心态。已经充分证明了计算机执行特定任务的能力,有时甚至比人类更好。在某些地区,弱AI变得如此先进,以至于它超过了人类技能。示例包括解决具有许多变量的逻辑公式,下棋或GO,医学诊断以及与决策有关的许多其他方案。弱AI还通过构建执行这些功能的程序的构建,与对思维方面的提出和测试有关(例如,演绎推理,归纳学习的能力,归纳学习的能力,归纳学习的能力)使用与人脑的过程完全不同。截至今天,AI领域的所有进步绝对是弱和特定AI的表现。
主要人工智能模型:符号,连接主义者,进化论和肉体
主导AI的符号?模型植根于PSS模型,尽管它仍然非常重要,但现在被认为是经典的(也称为Gofai,也就是?好的老式的AI)。这种自上而下的模型基于逻辑推理和启发式搜索,作为解决问题的支柱。它不要求智能系统成为身体的一部分,也不要求位于真实的环境中。换句话说,符号AI与现实世界的抽象表示作用,这些代表性语言主要基于数学逻辑及其扩展。这就是为什么第一个智能系统主要解决了不需要与环境直接互动的问题(例如展示简单的数学定理或下棋)的原因 - 实际上,国际象棋程序不需要视觉感知来查看董事会,也不需要实际移动技术件。这并不意味着不能使用符号AI来编程位于真实环境中的物理机器人的推理模块,但是在其第一年,AI的先驱既没有代表知识的语言,也没有可以这样做的语言有效率的。这就是为什么早期的智能系统仅限于解决不需要与现实世界直接互动的问题的原因。符号AI今天仍用于演示定理和下棋,但它也是需要感知环境并对环境采取行动的应用程序的一部分,例如自主机器人的学习和决策。
主导AI的符号模型植根于PSS模型,尽管它仍然非常重要,但现在被认为是经典的(也称为Gofai,即良好的老式AI)。这种自上而下的模型基于逻辑推理和启发式搜索作为解决问题的支柱
同时,开发了符号AI,一种基于生物学的方法称为“连接主义者”。连接主义系统与PSS假设不兼容,但与符号AI不同,它们是从底部建模的,因为它们的基本假设是智能是从大量互连单元的分布式活动中出现的,它们的模型非常相似于其模型的电动活动。生物神经元。1943年,McCulloch和Pitts(1943)提出了一个基于逻辑单元的想法,提出了一个简化的神经元模型。该模型是用于输入(树突)和输出(轴突)的数学抽象。输出值是根据条目的加权总和的结果来计算的,以至于如果该总和超过预先建立的阈值,则其作用为“ 1”,否则将被视为“ 0”。将每个神经元的输出连接到其他神经元的输入会产生人工神经网络。基于当时对生物神经元之间突触增强的知识,科学家发现,可以通过调整确定神经元之间连接的权重来学习这些人工神经网络,以学习将输入与输出相关的功能与输出相关的功能。因此,这些模型被认为比基于符号AI的模型更有利于学习,认知和记忆。尽管如此,就像他们的象征性同行一样,基于连接主义的智能系统不需要成为身体的一部分,也不需要位于真实的环境中。从这个意义上讲,它们具有与符号系统相同的局限性。此外,实际神经元具有复杂的树突分支,具有真正重要的电和化学特性。它们可以包含产生非线性效应的离子电导。他们可以接收成千上万的突触,具有多样的位置,极性和大小。此外,大多数脑细胞不是神经元,而是?不仅调节神经功能,而且具有电势,产生钙波并与其他人通信的细胞。这似乎表明它们在认知过程中起着非常重要的作用,但是没有现有的连接式模型包括神经胶质细胞,因此它们充其量是极其不完整的,而且最坏的情况是错误的。简而言之,大脑的巨大复杂性确实与当前模型相去甚远。而且这种非常复杂也提高了人们所谓的事物的想法?奇点,即,基于大脑复制品的未来人造超智慧,但在接下来的二十五年中,有能力超过人类智慧。这样的预测几乎没有科学优点。
卡内基·梅隆大学(Carnegie Mellon University)的工程师开发了这个名为Zoe的机器人,以发现显然无人居住的环境中的生活。Zoe包括一个用于检测有机分子的尖端系统,这可能有助于在火星上找到生命。它比其他火星探险家机器人快二十倍。Atacama Desert,智利,2005年。
与PSS假设也兼容的另一个具有生物学启发但非体面模型的是进化计算?(Holland,1975)。生物学在不断发展的复杂生物方面的成功使一些研究人员从1960年代初期考虑模仿进化的可能性。具体来说,他们想要可以发展的计算机程序,并自动改善解决已编程问题的解决方案。这个想法是,由于突变操作员并跨越了由这些程序建模的“染色体”,他们将生成新一代的修改程序,其解决方案将比以前提供的解决方案更好。由于我们可以将AI的目标定义为搜索能够产生智能行为的程序,因此研究人员认为,可以使用进化节目来在所有可能的程序中找到这些程序。现实要复杂得多,尽管在解决优化问题方面取得了出色的结果,但这种方法具有许多局限性。
人的大脑确实与AI模型相距很远,这表明所谓的奇异性(基于大脑的复制品,都超过人类智能的人工超智能),这是一个很少的科学优点的预测
这些非体制模型的最强烈批评之一是基于这样的观念:智能代理需要一个身体才能直接体验其周围环境(我们会说代理人在其周围“位置”而不是工作)从程序员对这些周围环境的抽象描述中,用一种语言来代表该知识。没有身体,这些抽象表示没有针对机器的语义内容,而与周围环境的直接相互作用使代理可以将其传感器感知的信号与基于所感知的符号表示形式联系起来。一些AI专家,尤其是Rodney Brooks(1991),甚至确认没有必要产生这些内部代表,也就是说,代理人甚至不需要周围的世界内部代表本身是自身可能的最佳模型,并且最聪明的行为不需要推理,因为它直接来自代理与周围环境之间的相互作用。这个想法引起了相当大的论点,几年后,布鲁克斯本人承认,在许多情况下,代理人需要对世界的内部代表来做出合理的决定。
1965年,哲学家休伯特·德雷福斯(Hubert Dreyfus)确认,AI的最终目标(一般性的AI)与十七世纪炼金术士的目标一样是无法实现的(Dreyfus,1965年)。Dreyfus认为,大脑以全球且连续的方式处理信息,而计算机则使用有限且谨慎的确定性操作集,也就是说,它将规则应用于有限的数据系统。从这个意义上讲,他的论点类似于塞尔的论点,但在后来的文章和书籍中(Dreyfus,1992),德雷福斯认为,身体在智力中起着至关重要的作用。因此,他是第一个提倡智力成为允许其与世界互动的身体的一部分的人之一。主要的想法是,活生生的情报源于他们在周围环境中可以通过身体互动的情况。实际上,这种对物质的需求是基于海德格尔的现象学及其对身体的重要性,其需求,欲望,愉悦,痛苦,行动和行动方式等的强调。根据Dreyfus的说法,AI必须建模所有这些方面,如果要达到强大的AI的最终目标。因此,Dreyfus并不能完全排除强大AI的可能性,但他确实声明,使用符号,非体制AI的经典方法是不可能的。换句话说,他认为物理符号系统假设不正确。毫无疑问,这是一个有趣的想法,如今,许多人工智能研究人员都分享了它。结果,具有内部代表性的物质方法在AI中已经取得了基础,现在许多人认为这对于迈向通用情报至关重要。实际上,我们的智力大部分基于我们的感觉和运动能力。也就是说,身体会塑造智力,因此,没有人体一般的智力就不可能存在。之所以如此,是因为身体是硬件,尤其是感觉和电机系统的机制, 确定代理可以进行的相互作用类型。同时,这些相互作用塑造了代理人的认知能力,从而导致了所谓的认知。换句话说,就像人类发生的那样,机器位于真实的环境中,因此它可以具有交互式体验,最终将使它执行类似于Piaget的认知发展理论中提出的类似的东西(Insreder and Piaget,1958年):一个人遵循阶段的精神成熟过程,此过程中的不同步骤可能是设计智能机器的指南。这些想法导致了AI的新地区,称为“开发机器人技术”(Weng等,2001)。
专业人工智能的成功
Masayuki Toyoshima是一位专业的Shogi或日本国际象棋棋手,他与YSS计算机程序进行比赛,该程序用机器人的手臂将碎片移动。大阪,2014年3月
AI的所有研究工作都集中在构建专业人工智能上,结果非常壮观,尤其是在过去十年中。这要归功于两个元素的组合:大量数据的可用性以及用于分析它的高级计算的访问。实际上,诸如Alphago(Silver等,2016),Watson(Ferrucci等,2013)等系统的成功以及自动驾驶汽车或基于图像的医学诊断的进步,这是由于这种能力,可以分析巨大的能力数据量和有效检测模式。另一方面,我们几乎没有进步来追求一般的AI。实际上,我们可以肯定,当前的AI系统是丹尼尔·丹内特(Daniel Dennet)所谓的“无理解能力”的例子(Dennet,2018年)。
AI的所有研究工作都集中在构建专业人工智能上,结果非常壮观,尤其是在过去十年中。这要归功于两个元素的组合:大量数据的可用性,以及用于分析它的高级计算
也许我们在AI的过去六十年中学到的最重要的教训是,看似最困难的是(诊断疾病,下棋或在最高级别上下棋)的事实相对容易,而似乎最简单的事实证明了成为最困难的。对这一明显矛盾的解释可能是在为机器提供构成“常识”的知识的困难。没有这些知识,除其他局限性外,不可能对语言有深刻的理解或对视觉感知系统所捕获的内容的深刻解释。常识性知识是我们生活经历的结果。例如:“水总是向下流动;”“要拖动绑在字符串的对象,您必须拉动字符串,而不是按下;”“玻璃可以存放在橱柜中,但橱柜不能存放在玻璃杯中;”等等。人类很容易处理数百万此类常识数据,这些数据使我们能够了解我们所居住的世界。上面提到的开发机器人技术可能会产生有关获取常识知识的有趣结果的可能研究线。另一个有趣的领域探讨了因果关系的数学建模和学习,即因果关系的学习,因此是不对称的世界模型。基于深度学习的当前系统能够学习对称数学功能,但无法学习不对称关系。因此,它们无法将原因与效果区分开,例如升起的太阳导致公鸡乌鸦,但反之亦然(Pearl and Mackenzie,2018; Lake等,2016)。
未来:迈向真正聪明的人工智能
最复杂的能力是那些需要与不受限制且不准备周围的环境相互作用的能力。具有这些功能的设计系统需要在AI许多领域的开发集成。我们特别需要知识代表语言,以编码有关许多不同类型的对象,情况,动作等以及其属性及其之间的关系(尤其是因果关系)的信息。我们还需要新算法,这些算法可以以强大而有效的方式使用这些表示形式来解决问题并几乎对任何主题回答问题。最后,鉴于他们需要获得几乎无限的知识,这些系统将必须能够在整个生存过程中不断学习。总而言之,设计结合感知,表示,推理,行动和学习的系统至关重要。这是一个非常重要的AI问题,因为我们仍然不知道如何整合所有这些智力组成部分。我们需要充分整合这些组件的认知体系结构(Forbus,2012)。集成系统是有一天实现一般AI的基本第一步。
最复杂的能力是那些需要与不受限制且不准备周围的环境相互作用的能力。具有这些功能的设计系统需要在AI的许多领域中整合开发
在未来的活动中,我们认为最重要的研究领域将是混合系统,它们结合了能够根据知识和记忆使用来推理的系统的优势(Graves等,2016)与AI的基础基于AI的优势。大量数据,即深度学习(Bengio,2009年)。如今,深度学习系统受到所谓的“灾难性遗忘”的限制。这意味着,如果他们经过训练来执行一项任务(例如,参加比赛),然后接受训练以做不同的事情(例如,区分狗和猫的图像),他们完全忘记了他们为以前的任务所学到的东西(在这种情况下,玩耍)。这种限制是有力的证据,表明这些系统至少在人类的学习意义上没有学习任何东西。这些系统的另一个重要限制是它们是“黑匣子”,没有任何解释能力。因此,研究如何通过添加模块来解释他们如何达到拟议的结果和结论来研究如何赋予深度学习系统的阐释能力会很有趣,因为解释的能力是任何智能系统的重要特征。还必须开发新的学习算法,这些算法不需要大量的数据接受培训,以及更节能的硬件来实施它们,因为能源消耗可能最终成为AI开发的主要障碍之一。相比之下,大脑比实施最复杂的AI算法所需的硬件要高。探索的一种可能的途径是基于备忘录的神经形态计算(Saxena等,2018)。
IBM Technology Corporation已在德国慕尼黑的高光塔楼开设了一个专门针对其Watson IoT(物联网)的部门。人工智能被用来开发新的物联网解决方案
其他更经典的AI技术将继续进行广泛研究赋予机器具有常识的关键,尤其是学习其行为与周围环境产生影响之间关系的能力。我们还将看到仿生方法在机器中繁殖动物行为的重大进展。这不仅是重现动物行为的问题,还涉及了解产生该行为的大脑实际上是如何工作的。这涉及构建和编程电子电路,这些电路会重现负责这种行为的脑活动。一些生物学家对创建最复杂的人造大脑的努力感兴趣,因为他们认为这是更好地理解该器官的一种手段。在这种情况下,工程师正在寻求使设计更有效的生物学信息。分子生物学以及光遗传学的最新进展将使确定哪些基因和神经元在不同的认知活性中起关键作用。
开发机器人技术可以为赋予机器具有常识的关键,尤其是学习其行为之间关系以及这些对周围环境产生影响的关系的能力
关于应用程序:一些最重要的将继续是与网络,视频游戏,个人助理和自动驾驶机器人有关的人(尤其是自动驾驶汽车,社交机器人,用于行星探索的机器人等)。环境和节能应用也将很重要,以及为经济学和社会学设计的应用程序。最后,AI的艺术应用程序(视觉艺术,音乐,舞蹈,叙事)将导致创作过程的重要变化。如今,计算机不再简单地有助于创建。他们已经开始成为创意代理商。这导致了一个新的且非常有前途的AI领域,称为“计算创造力”?哪个是在国际象棋,音乐,视觉艺术和叙事中产生非常有趣的结果(Colton等,2009,2015;LópezDeMántaras,2016),除其他创意活动。
一些最后的想法
不管未来的人工智能多么聪明,甚至是一般的人工智能,它们将永远不会与人类的智能相同。正如我们所说,所有复杂智力所需的心理发展取决于与环境的互动,而这些相互作用又取决于体内,尤其是感知和运动系统。这与我们的社会化和文化收购过程不会与我们相同的事实,进一步加强了这样一个结论,即,无论它们变得多么复杂,这些智能都将与我们的智能有所不同。智力的存在与我们不同,因此与我们的价值观和人类需求不同,呼吁反思发展AI的道德局限性。具体来说,我们同意魏森鲍姆(Weizenbaum)的肯定(Weizenbaum,1976年),即任何机器都不应做出完全自主的决定,或者提供建议,除其他外,还要求以人类经验和对人类价值观的认可。
无论未来的人工智能多么聪明,它们将永远不会与人类智能相同:所有复杂智能所需的心理发展取决于与环境的互动,而这些互动又取决于体内,尤其是感知和运动系统
人工智能的真正危险不是假设未来的人造超智能产生的高度不可能的技术奇异性。真正的危险已经在这里。如今,驱动互联网搜索引擎的算法或手机上的推荐和个人辅助系统已经对我们的工作,我们的偏好和口味有足够的了解。他们甚至可以推断我们的想法和感受。访问我们自愿生成的大量数据对此至关重要,因为对来自各种来源的此类数据的分析揭示了没有AI技术无法检测到的关系和模式。结果是令人震惊的隐私丧失。为了避免这种情况,我们应该有权拥有我们生成的所有个人数据,控制其使用的副本,并决定谁可以访问它以及在什么条件下,而不是在大型公司手中不知道他们真正使用的数据。
AI基于复杂的编程,这意味着不可避免地会有错误。但是,即使有可能开发绝对可靠的软件,也存在软件开发人员在设计时需要牢记的道德困境。例如,自动驾驶汽车可以决定在行人身上奔跑,以避免可能损害其乘员的碰撞。为公司提供高级AI系统的公司,使管理和生产更有效地需要更少的人类雇员,从而产生更多的失业。这些道德困境导致许多AI专家指出需要规范其发展的必要性。在某些情况下,甚至应禁止其使用。一个明确的例子是自动武器。管理武装冲突的三个基本原则:歧视(需要区分战斗人员和平民,或在投降的战斗人员和准备攻击的战斗人员之间),相称性(避免使用武力的使用不成比例)和预防(最小化)受害者的数量和物质损害)很难评估,因此自动武器中的AI系统几乎不可能服从他们。但是,即使从长远来看,机器是要实现这一能力,也将杀害该机器的决定委托。除了这种法规外,必须对公民进行智能技术的风险进行教育,并确保它们具有控制它们的必要能力,而不是由他们控制?我们未来的公民需要更加了解知识,并具有更大的能力来评估技术风险, 具有更大的批判意义和行使权利的意愿。这个培训过程必须从学校开始,并继续在大学一级。科学和工程专业的学生特别有必要接受道德培训,这将使他们能够更好地掌握他们很可能正在发展的技术的社会含义。只有在我们投资教育时,我们才能实现一个可以享受智能技术优势的社会,同时最大程度地降低风险。无疑,只要我们正确地和谨慎地使用它,AI就具有使社会受益的非凡潜力。有必要提高人们对AI局限性的认识,并集体采取行动,以确保AI以安全,可靠和负责任的方式用于共同利益。
真正智能AI的道路将继续漫长而艰难。毕竟,这个领域仅六十年了,正如卡尔·萨根(Carl Sagan)所观察到的那样,六十年来几乎没有眨眼间的宇宙时间尺度。加布里埃尔·加西亚·马尔克斯(GabrielGarcíaMárquez)在1936年的演讲中更加诗意(“达马克勒斯的灾难”):除了变得美丽之外,还没有其他承诺的玫瑰,还有四个地质时代,以便我们的人类能够比鸟儿唱歌更好,并能够死于爱。”
选择参考书目
- Bengio,Y。2009年。“学习AI的深层体系结构。”机器学习的基础和趋势?2(1):1-127。
- 布鲁克斯,R。A.,1991年。“无故的情报。”?ijcai-91第十二届国际人工智能会议会议录?1:569–595。
- Colton,S.,Lopez de Mantaras,R。和Stock,O。2009年。“计算创造力:年龄的到来。”?AI杂志?30(3):11-14。
- Colton,S.,Halskov,J.,Ventura,D.,Gouldstone,I.,Cook,M。和Pérez-Ferrer,B.2015。自动画家的新项目。”?国际计算创造力会议(ICCC 2015):189–196。
- Dennet,D。C. 2018.?从Bach到Bach和背部:思想的演变。伦敦:企鹅。
- Dreyfus,H。1965.?Alchemy和人工智能。圣莫尼卡:兰德公司。
- Dreyfus,H。1992.是什么计算机仍然做不到的。纽约:麻省理工学院出版社。
- Ferrucci,D.A.,Levas,A.,Bagchi,S.,Gondek,D。和Mueller,E。T.,2013年。“ Watson:Beyond Jeopardy!”?人工智能?199:93-105。
- Forbus,K。D.,2012年。“如何建立思维。”认知系统的进步?1:47-58。
- Graves,A.,Wayne,G.,Reynolds,M.,Harley,T.,Danihelka,I.,Grabska-Barwin?Ska,A.,T.,Agapiou,J.,Puigdome?Nech-Badia,A.,Hermann,K.M.,Zwols,Y.。
- Holland,J。H.,1975年。自然和人造系统的适应。安阿伯:密歇根大学出版社。
- Inhelder,B。和Piaget,J。1958年。纽约:基本书籍。
- Lake,B。M.,Ullman,T。D.,Tenenbaum,J。B.和Gershman,S。J.,2017年。“建筑物像人一样学习和思考。”?行为和脑科学?40:e253。
- LópezDeMántaras,R。2016年。“人工智能与艺术:迈向计算创造力。”在“下一步:指数级生活”中。马德里:BBVA开放的心灵,100-125。
- McCulloch,W。S.和Pitts,W。1943年。“神经活动中的思想的逻辑计算。”?数学生物物理学公告?5:115-133。
- Newell,A。和Simon,H。A.,1976年。“计算机科学作为经验询问:符号和搜索。” ACM的通信?19(3):113–126。
- Pearl,J。和Mackenzie,D。2018年。原因:因果关系的新科学。纽约:基本书籍。
- Saxena,V.,Wu,X.,Srivastava,I。和Zhu,K。,2018年。“使用具有大脑样能量效率的新兴记忆设备迈向神经形态学习机。”预印本:?
- Searle,J。R.,1980年。“思维,大脑和程序”,“行为和脑科学”?3(3):417–457。
- Silver,D.,Huang,A.,Maddison,C.J.,Guez,A.。D. 2016.“掌握深度神经网络和树木搜索的游戏。”自然?529(7587):484–489。
- Turing,A。M.,1948年。“智能机械。”国家物理实验室报告。转载于:?机器智能5,B。Meltzer和D. Michie(编辑)。爱丁堡:爱丁堡大学出版社,1969年。
- Turing,A。M.,1950年。“计算机和智能。”?Mind?Lix(236):433–460。
- Weizenbaum,J。1976.?Computer的力量和人类推理:从判断到计算。旧金山:W .H。Freeman and Co.
- Weng,J.,McClelland,J.,Pentland,A.,Sporns,O.,Stockman,I.,Sur,M。和Thelen,E。2001年。“机器人和动物的自主心理发展。?291:599–600。