当前位置: 首页 > 科技观察

关于AI

时间:2023-03-13 19:55:14 科技观察

的四个最常见的谬误今天的AI系统可以在广泛的领域执行复杂的任务,例如数学、游戏和逼真的图像生成。但随着我们越来越接近AI的一些早期目标,例如管家机器人和自动驾驶汽车,这些目标仍将逐渐消失。圣达菲研究所戴维斯复杂性教授梅兰妮·米切尔(MelanieMitchell)说,错过这些目标的持续循环部分是由于对人工智能和自然智能的错误假设。在一篇题为“为什么人工智能比我们想象的更难”的新论文中,米切尔列出了关于人工智能的四个常见神话,不仅在公众和媒体中,而且在专家中也被误解了。这些谬误给人一种错误的信心,即我们对实现人工智能、能够匹配人类认知能力和一般问题解决能力的人工智能系统有多大信心。NarrowAI和generalAI不是一个规模现有的AI可以很好的解决狭义的问题。例如在围棋和国际象棋方面超越人类,以非凡的准确性在X射线图像中发现癌变模式,以及将音频数据转换为文本。但是设计可以解决单个问题的系统并不一定能让我们更接近于解决更复杂的问题。米切尔将第一个谬误描述为“狭隘的智慧与普遍的智慧处于连续统一体上”。米切尔在论文中写道:“即使当人们看到一台机器在一个狭窄的领域里做着令人惊奇的事情时,他们也常常认为这个领域离通用人工智能要远得多。”例如,今天的自然语言处理系统在解决翻译、文本生成和特定问题的问答等许多不同问题方面已经取得了长足的进步。同时,我们有一个深度学习系统,可以将语音数据实时转化为文本。每一项成就的背后都是数千小时的研发(以及在计算和数据上花费的数百万美元)。但是AI社区仍然没有解决创建代理人的问题,这些代理人可以进行公开对话而不会长时间失去连贯性。这样的系统不仅需要解决较小的问题,还需要解决更多的问题。它需要常识,这是人工智能尚未解决的关键挑战之一。简单的事情很难自动化当谈到人类时,我们希望聪明的人去做困难的事情,这需要多年的学习和实践。示例可能包括解决微积分和物理问题、大师级下棋或背诵大量诗歌等任务。但数十年的人工智能研究已经证明,需要自动关注的困难任务更容易实现自动化。简单的任务,我们认为理所当然的事情,很难自动化。米切尔将第二个谬误描述为“易事易,难事难”。米切尔写道:“我们人类不假思索地做的事情——看看世界,理解我们所看到的,进行对话并在拥挤的人行道上行走而不撞到任何人,这是对机器来说最艰巨的挑战。”相反,它通常更容易机器可以做人类很难做的事情;例如,解决复杂的数学问题,掌握国际象棋和围棋等游戏,以及在数百种语言之间翻译句子对机器来说变得相对容易得多。例如,考虑视觉.数十亿年来,生物体已经发展出处理光信号的精密设备。动物用眼睛盘点周围环境、在环境中导航、寻找食物、检测威胁并执行许多其他对生存至关重要的任务。我们人类继承了所有这些能力来自于我们的祖先,并在不知不觉中使用它们。然而,底层机制确实比庞大的数学形式更复杂让高中和大学感到沮丧的ulas。恰当的例子:我们仍然没有像人类视觉一样通用的计算机视觉系统。我们设法创建了人工神经网络,大致模仿动物和人类视觉系统的一部分,例如检测物体和分割图像。但它们很脆弱,对许多不同类型的干扰都很敏感,而且它们无法模仿生物视觉可以完成的所有任务。这就是为什么,例如,无人驾驶汽车中使用的计算机视觉系统需要辅以激光雷达和地图数据等先进技术。另一个被证明非常困难的领域是感觉运动技能,人类无需经过明确的训练即可获得。想想如何处理物体、走路、跑步和跳跃。这些是您可以在没有意识的情况下完成的任务。事实上,在走路时,您还可以做其他事情,例如收听播客或打电话。然而,这些技能对于当前的人工智能系统来说仍然是一个巨大而昂贵的挑战。“人工智能比我们想象的要难,因为我们基本上没有意识到自己思维过程的复杂性,”米切尔写道。拟人化AI无助于AI领域充满了词汇,制作软件和人类智能处于同一水平。我们使用“学习”、“理解”、“阅读”和“思考”等术语来描述人工智能算法的工作原理。虽然此类拟人化术语经常被用作简化复杂软件机制的速记,但它们可能会误导我们认为当前的人工智能系统的功能类似于人脑。米切尔将这种谬误称为“如意算盘助记符的诱惑”,并写道:“这种速记法可能会误导试图理解这些结果的公众(以及报道他们的媒体),甚至还会在不知不觉中影响AI专家的思考方式。他们的系统以及这些系统与人类智能的相似程度。”一厢情愿的谬误也导致AI社区以误导的方式命名算法评估基准。例如,考虑由AI中一些最受尊敬的组织和学术机构开发的通用语言理解评估(GLUE)基准。GLUE提供了一个一组任务可以帮助评估语言模型将其能力泛化到它所训练的任务之外的能力。然而,与媒体所描绘的相反,如果人工智能代理获得比人类更高的GLUE分数,它不会意味着它的语言理解能力比人类更好。米切尔写道:“虽然机器在这些特定的基准测试中优于人类,但人工智能系统仍然远不及我们与基准名称相关联的更一般的人类能力。”一厢情愿的明显例子arithmeticisFacebookartificialintelligence.IntelligenceResearchCorporation2017年的一个项目,科学家们训练了两个AIagent来n基于人类对话任务进行协商。在他们的博客文章中,研究人员指出,“更新两个代理的参数会导致与人类语言的分歧,因为代理会开发自己的语言进行谈判(强调我的)。”这导致了一系列点击诱饵文章,警告说人工智能系统正在变得比人类更聪明,并且正在使用秘密方言进行交流。四年后,最先进的语言模型仍然难以理解大多数人在非常年轻的情况下在没有指导的情况下学习的基本概念。没有身体的AI智能能否独立于世界丰富的物理体验而存在?这是一个困扰了科学家和哲学家几个世纪的问题。一种认为智力全在大脑,可以与身体分离的学派也被称为“桶中之脑”学说。米切尔将此称为“智慧全在头脑中”的谬误。有了正确的算法和数据,我们就可以创建可以存在于服务器中并与人类智能相匹配的人工智能。对于这种思维方式的拥护者,尤其是那些偏爱纯粹基于深度学习的方法的人来说,实现通用AI取决于收集恰到好处的数据量并创建越来越大的神经网络。与此同时,越来越多的证据表明这种方法注定要失败。“越来越多的研究人员正在质疑‘全脑’信息处理模型的基础,以理解智能和创造人工智能,”她写道。“人类和动物的大脑与所有其他人体器官一起进化,最终目标是提高生存机会。我们的智力与我们身体的极限和能力密切相关。嵌入式人工智能领域正在扩大,其目的是通过不同的感官刺激与环境相互作用来提高生存机会,从而创造出能够发展智能技能的代理人。米切尔指出,神经科学研究表明,“控制认知的神经结构与控制感觉和运动系统的神经结构密切相关,而那种抽象思维利用了人体的神经“地图”。“事实上,越来越多的证据和研究表明,来自反馈的反馈。大脑的不同感觉区域会影响我们有意识和无意识的想法。米切尔支持这样一种观点,即情绪、感觉、潜意识偏见和身体体验与智力有着千丝万缕的联系。她写道:“在我们的心理学或神经科学知识中,没有任何东西可以支持将‘纯粹理性’与可以塑造我们的认知和目标可能性的情感和文化偏见区分开来。“相反,我们从具身认知研究中了解到,人类智能似乎是一个高度集成的系统,具有密切相关的属性,包括情感、欲望、强烈的自我意识和自主意识,以及对世界的常识。”目前尚不清楚这些属性是否可以分开。“人工智能常识和通用人工智能的发展将需要调整我们对智能本身的理解。我们仍在努力定义什么是智能以及如何在人工和自然世界中衡量智能。”显然,为了更有效地实施和评估人工智能的进步,我们需要开发一个更好的词汇表来谈论机器可以做什么,”米切尔写道。“更广泛地说,我们需要对智能在自然界不同??系统中的表现有更好的科学理解。米切尔在她的论文中讨论的另一个挑战是常识的挑战,她将其描述为“当今最先进的人工智能系统所缺少的一种保护伞”。常识包括我们获得的关于世界的知识,并且每天都可以毫不费力地应用它。当我们还是孩子的时候,我们可以在没有明确指示的情况下通过探索世界学到很多东西。这包括诸如空间、时间、重力和对象概念的物理属性之类的东西。例如,孩子在很小的时候就知道,当一个物体被另一个物体挡住时,它不会消失而是继续存在,或者当一个球滚过桌子并到达壁架时,它应该落下。我们使用这些知识来构建世界的心智模型,进行因果推理,并相当准确地预测未来状态。今天的人工智能系统缺乏这方面的知识,使它们变得不可预测且需要大量数据。事实上,本文开头提到的两个AI应用——家政和驾驶——是大多数人通过常识和一些实践学习的东西。常识还包括关于人性和生活的基本事实,我们在谈话和写作中忽略的事情,因为我们知道我们的读者和听众知道它们。例如,我们知道如果两个人在“打电话”,这意味着他们不在同一个房间。我们还知道,如果“Johnreachedforsugar”,则表示在John附近某处有一个装糖的容器。这些知识对于自然语言处理等领域至关重要。“还没有人弄清楚如何在机器中获取这些知识或能力。这是人工智能研究的当前前沿,一个令人鼓舞的前进方向是利用已知的幼儿这些能力发展的知识。”米切尔写道。虽然我们仍然不知道许多问题的答案,但寻找解决方案的第一步是意识到我们自己错误的想法。米切尔写道:“了解这些谬误及其微妙的含义可能会为创建更强大、更可靠、甚至可能是真正智能的人工智能系统指明方向。”