当前位置: 首页 > 科技观察

AI的未来:通用人工智能

时间:2023-03-12 20:02:56 科技观察

为了真正理解AI,研究人员应该将注意力转向开发一种基本的、潜在的AGI技术,以复制人类对环境的理解。谷歌、微软和Facebook等行业巨头,ElonMusk的OpenAI等研究实验室,甚至SingularityNET等平台都在押注通用人工智能(AGI)——智能体理解或学习人类无法完成的任何智力任务的能力,这代表人工智能技术的未来。然而,有些令人惊讶的是,这些公司都没有专注于开发一种基本的、低水平的AGI技术来复制人类的上下文理解。这或许可以解释为什么这些公司所做的研究完全依赖于具有不同程度特异性的智能模型,并依赖于当今的人工智能算法。不幸的是,这种依赖意味着,人工智能充其量只能表现出智能。无论他们的能力多么出色,他们仍然遵循着一个充满变数的既定剧本。因此,即使是大型、高度复杂的程序,如GPT3或Watson,也只能展示理解能力。事实上,他们不明白文字和图像代表物理宇宙中存在和相互作用的物理事物。时间的概念或因果关系的概念对他们来说是完全陌生的。这并不是要剥夺当今人工智能的能力。例如,谷歌能够以难以置信的速度搜索大量信息,以提供用户想要的结果(至少在大多数情况下是这样)。像Siri这样的个人助理可以进行餐厅预订、查找和阅读电子邮件以及实时给出方向。此列表在不断扩展和改进。但无论这些程序多么复杂,它们仍然会寻找输入并以完全依赖于其核心数据集的特定输出作为响应。如果没有,请向客户服务机器人询问一个“计划外”问题,这可能会产生无意义的响应或根本没有响应。总而言之,谷歌、Siri或任何其他当前的AI示例都缺乏真正的、常识性的理解,这最终会阻止它们向通用人工智能发展。原因可以追溯到过去50年大多数AI发展的主导假设,即如果可以解决难题,那么简单的智能问题也将得到解决。这个假设可以描述为Moravec的悖论,它指出让计算机在智力测试中表现出成人水平相对容易,但让它们具有一岁婴儿的感知和运动技能却很困难。人工智能研究人员的假设也是错误的,即如果构建了足够多的狭义人工智能应用程序,它们最终将共同成长为通用智能。与儿童可以毫不费力地整合视觉、语言和其他感官的方式不同,狭义定义的人工智能应用程序无法以允许信息共享并随后被其他人工智能应用程序使用的通用方式存储信息。最后,研究人员错误地认为,如果可以构建一个足够大的机器学习系统并具有足够的计算能力,它就会自发地表现出通用智能。这也被证明是错误的。正如试图获取特定领域知识的专家系统无法创建足够的案例和示例数据来克服潜在的理解不足一样,人工智能系统也无法处理“计划外”请求,无论请求有多大。通用人工智能基础知识为了获得真正的AI理解,研究人员应将注意力转向开发一种基本的、潜在的AGI技术,以复制人类对上下文的理解。例如,考虑一个3岁的孩子在玩积木时表现出的情境意识和情境理解。3岁的孩子理解积木存在于三维世界中,具有重量、形状和颜色等物理特性,如果堆得太高会掉落。孩子们还理解因果关系和时间流逝的概念,因为积木只有先堆叠起来才能被推倒。3岁也可以变成4岁,然后是5岁,最后是10岁,依此类推。简而言之,3岁的孩子天生就有能力,包括成长为功能完备、普遍聪明的成年人的能力。对于今天的人工智能来说,这样的增长是不可能的。无论它多么复杂,今天的人工智能仍然完全没有意识到它在其环境中的存在。它不知道现在采取的行动会影响未来的行动。虽然认为除了自己的训练数据之外从未经历过任何事情的人工智能系统能够理解现实世界的概念是不现实的,但向人工智能添加移动感官舱可以让人造实体从现实世界环境中学习并展示开发对现实中的物理对象、因果关系以及时间的流逝有基本的了解。像3岁的孩子一样,配备了感官舱的人造实体能够直接学习如何堆叠积木、移动物体、随着时间的推移执行一系列动作,并从这些动作的后果中学习。通过视觉、听觉、触觉、操纵器等,人工实体可以学习以纯文本或纯图像系统无法实现的方式进行理解。如前所述,无论它们的数据集有多大和多变,这样的系统都无法理解和学习。一旦实体获得这种理解和学习的能力,甚至有可能移除感官豆荚。虽然在这一点上我们无法量化需要多少数据才能代表真正的理解,但我们可以推测必须有合理比例的大脑参与理解。毕竟,人类是根据他们所经历和学习的一切来解释一切的。作为成年人,我们用生命最初几年学到的东西来解释一切。考虑到这一点,只有AI社区认识到这一事实并采取必要步骤来建立理解的基本基础,真正的通用人工智能才可能完全出现。