当前位置: 首页 > 科技观察

人工智能65年简史:从麦卡锡到欣顿,人类追求的AI是什么?

时间:2023-03-17 12:43:17 科技观察

人工智能的发展已有65年的历史。它既经历过寒冬,也经历过辉煌。从符号专家系统到现在所向披靡的神经网络,很多人担心冬天会不会又来,也有乐观的人说人工智能的春天来了。回到人工智能发展之初,或许会有答案。1956年夏天,一群数学家和计算机科学家占据了达特茅斯学院数学系大楼的顶层。在大约八周的时间里,他们想象了一个新研究领域的可能性。JohnMcCarthy,当时是一位年轻的达特茅斯教授,在为研讨会撰写提案时创造了“人工智能”一词,他说研讨会将探讨以下假设:“(人类)学习或智能的任何其他特征原则上可以描述精确到可以用机器模拟。”在那场具有传奇色彩的会议上,研究人员勾勒出我们今天所知的人工智能的大致轮廓,催生了第一批研究人员阵营:“象征主义者”(symbolists),而基于象征主义的专家系统在1980年代达到顶峰。在会议召开后的几年里,也有“连接主义者”在人工神经网络上工作了几十年,直到最近才开始重新创建它们。长期以来,这两种方法一直被认为是相互排斥的,研究人员之间因争夺资金而产生敌意,双方都认为它正在通往通用人工智能的道路上。但回顾那次会议后的几十年,研究人员的希望经常在几个人工智能冬天破灭。今天,尽管人工智能正在彻底改变行业并可能扰乱全球劳动力市场,许多专家想知道今天的人工智能是否已经达到了极限。正如查尔斯·崔在“人工智能失败的七种方式”中所描绘的那样,弱点当今深度学习系统的风险越来越明显,但研究人员几乎没有危险意识。他认为,也许在不远的将来可能会出现另一个AI寒冬,但也可能是受到启发的工程师最终将我们带入机器思维永恒的夏天。研究人员开发符号AI的目标是明确地教计算机认识世界。他们的宗旨是知识可以用一组规则来表示,这些规则可以由计算机程序使用逻辑来操纵。Newell和HerbertSimon等符号主义先驱认为,如果一个符号系统具有足够的结构化事实和前提,那么聚合结果最终将导致通用智能。另一方面,联结主义者受到生物学的启发,致力于“人工神经网络”,这些网络可以吸收信息并自行理解。一个开创性的例子是感知器,它是康奈尔大学心理学家弗兰克罗森布拉特在美国海军的资助下建造的实验机器。它有400个光传感器,共同充当视网膜,向大约1,000个神经元提供信息,这些神经元能够处理和产生单一输出。1958年,《纽约时报》的一篇文章引用罗森布拉特的话说“机器将是第一个像人脑一样思考的设备”。肆无忌惮的乐观情绪鼓励美国和英国的政府机构向研究投入资金。1967年,麻省理工学院教授、人工智能之父马文·明斯基甚至写道“在一代人之内……创造‘人工智能’的问题将得到实质性解决”。然而不久之后,政府资金开始枯竭,因为AI研究没有达到其炒作的效果,除了炒作之外没有任何真正的进展。1970年代见证了第一个AI寒冬。然而,真正的人工智能研究人员并没有放弃。到20世纪80年代初期,符号AI的研究人员达到了鼎盛时期,他们被资助研究特定学科(例如法律或医学)的知识专家系统。投资者希望这些系统能很快找到商业应用。最著名的符号AI项目始于1984年,当时研究员DouglasLenat开始致力于一个名为Cyc的项目,该项目旨在将常识编码到机器中。时至今日,Lenat和他的团队还在继续为Cyc的本体添加术语(事实和概念),并通过规则来解释它们之间的关系。到2017年,该团队拥有150万条条款和2450万条规则。然而,Cyc距离实现通用智能还很远。20世纪80年代后期,商业的寒风带来了人工智能的第二个寒冬。专家系统市场的全面崩溃是因为他们需要无法与日益通用的台式计算机竞争的专用硬件。到1990年代,研究符号人工智能或神经网络在学术上已经过时,因为这两种策略似乎都失败了。但是取代专家系统的廉价计算机对连接主义者来说是一个福音,他们突然拥有足够的计算能力来运行具有多层人工神经元的神经网络。这样的系统被称为深度神经网络,它们实现的方法被称为深度学习。多伦多大学的GeoffreyHinton实施了一种称为反向传播的原理,使神经网络能够从错误中学习。Hinton的博士后之一YannLeCun于1988年加入AT&T贝尔实验室,在那里他和一位名叫YoshuaBengio的博士后使用神经网络进行光学字符识别;美国银行很快采用了该技术来处理支票。Hinton、LeCun和Bengio获得了2019年的图灵奖。但神经网络的拥护者仍然面临一个大问题:他们的理论框架的计算能力越来越强,但世界上没有足够的数据来训练他们的模型,至少对于大多数应用程序。人工智能的春天还没有到来。但在过去的二十年里,一切都变了。尤其是随着互联网的蓬勃发展,突然之间,数据无处不在。数码相机和智能手机在互联网上发布图像,维基百科和Reddit等网站充满了可免费访问的数字文本,YouTube上有大量视频。充足的数据也是训练神经网络的基础。另一个重大发展来自博彩业。Nvidia等公司开发了称为图形处理单元(GPU)的芯片,用于在视频游戏中渲染图像所需的繁重处理。游戏开发人员使用GPU进行复杂的着色和几何变换。需要大量计算能力的计算机科学家意识到他们可以将GPU用于其他任务,例如训练神经网络。Nvidia也注意到了这一趋势并创建了CUDA,它允许研究人员使用GPU进行通用数据处理。2012年,Hinton实验室的一名学生AlexKrizhevsky使用CUDA编写了一段神经网络代码,AlexNet模型的效果震惊了整个学术界。Alex为ImageNet竞赛开发了模型,该模型为AI研究人员构建计算机视觉系统提供数据,该系统可以将超过100万张图像分类为1000类对象。虽然Krizhevsky的AlexNet并不是第一个用于图像识别的神经网络,但它在2012年的比赛中的表现引起了全世界的关注。AlexNet的错误率为15%,而第二好的错误率为26%。神经网络的胜利归功于GPU的强大功能和包含650,000个神经元的深度架构。在第二年的ImageNet比赛中,几乎所有人都使用了神经网络。到2017年,在组织者结束比赛之前,许多参赛者的错误率已降至5%。深度学习这次真的起飞了。凭借GPU的计算能力和用于训练深度学习系统的大量数字数据,自动驾驶汽车可以在道路上行驶,语音助手可以识别用户的语音,网络浏览器可以在数十种语言之间进行翻译。人工智能还在以前被认为对机器无懈可击的游戏中击败了人类冠军,包括棋盘游戏Go和战略游戏星际争霸II。目前,人工智能的发展已经惠及各行各业,可以为每一个应用场景提供模式识别和复杂决策的新途径。但深度学习不断扩大的胜利取决于增加神经网络的层数和增加专门用于训练它们的GPU时间。AI研究公司OpenAI的一项分析表明,训练最大的AI系统所需的计算能力在2012年之前每两年翻一番,此后每3.4个月翻一番。正如NeilC.Thompson及其同事在深度学习的收益递减中所写,许多研究人员担心AI的计算需求处于不可持续的轨道上,并可能扰乱地球的能量循环,研究人员需要打破为这些系统建立的方法。虽然看起来神经网络阵营彻底击败了符号主义者,但战斗的结果并不是那么简单。例如,OpenAI的机械手因使用神经网络和符号人工智能来操纵和解决魔方而成为头条新闻。它是许多使用神经网络进行感知和使用符号人工智能进行推理的新型神经符号系统之一,这是一种提高效率和可解释性的混合方法。鉴于深度学习系统通常是黑匣子,以不透明和神秘的方式进行推理,神经符号系统使用户能够获得洞察力并理解AI如何得出结论。美国陆军对依赖黑匣子系统特别谨慎,因此陆军研究人员正在研究各种混合动力方法来为他们的机器人和自动驾驶汽车提供动力。目前,深度学习系统是为特定任务构建的,无法将其能力从一项任务推广到另一项任务。更重要的是,学习一项新任务通常需要AI抹去它所知道的关于如何解决之前任务的一切,这个难题被称为灾难性遗忘。在谷歌位于伦敦的人工智能实验室DeepMind,著名的机器人专家RaiaHadsell正在使用各种复杂的技术来解决这个问题。其他研究人员正在研究新型元学习,希望创建能够学习如何学习并将该技能应用于任何领域或任务的人工智能系统。所有这些策略都可以帮助研究人员实现他们的最高目标:构建具有人类观察儿童发展的那种流动智力的人工智能。年幼的孩子不需要大量的数据来得出结论,他们所做的就是观察世界,建立一个关于它如何运作的心智模型,采取行动,并利用他们行动的结果来调整这个心智模型。他们迭代直到他们理解。这个过程是如此高效和有效,以至于它远远超过了当今最先进的人工智能的能力。尽管对人工智能研究的资助一直很高,但几乎没有证据表明我们的未来会失败。世界各地的公司都在采用人工智能系统,因为他们看到了利润的立竿见影的改善,而且他们从不回头。研究人员是否会找到适应深度学习的方法以使其更加灵活和强大,或者设计出65年探索中未发现的新方法来使机器更像人类。