当前位置: 首页 > 科技观察

强人工智能和弱人工智能辩论:人工智能中一个奇妙的意识理论

时间:2023-03-16 16:59:57 科技观察

我最近与我最喜欢的新兴思想家就高性能与低性能人工智能进行的一场辩论让我想起了一年多前写的东西,所以我决定拾起这些尘封的想法。围绕人工智能的技术炒作如此之多,以至于有时是时候回到它的哲学根源了。在围绕人工智能的所有哲学辩论中,最重要的是关于强人工智能和弱人工智能的辩论。从技术的角度来看,我赞成我们在实现某种形式的强人工智能或通用人工智能领域取得一两个突破的想法。但从哲学的角度来看,仍然存在一些需要调和的挑战。许多挑战可以用上个世纪奥匈帝国数学家开创的晦涩理论来解释,该理论是神经科学研究的主要领域之一。在人工智能理论中,低性能的人工智能系统通常只是看起来很智能,而高性能的人工智能机器是真正具有思考能力的。这里的思考指的是真实的思考,而不仅仅是模拟的思考。这种困境通常被称为“高性能AI假设”。在数字助理和算法击败围棋和魔兽世界2团队世界冠军的世界中,机器是否可以智能行动的问题似乎很愚蠢。在一些受限的环境中,比如医学研究、围棋、旅行等,我们已经能够构建大量可以发挥其智能的AI系统。大多数专家都认为低性能AI绝对是可能的,但高性能AI仍然高度怀疑。机器能思考吗?自艾伦·图灵(AlanTuring)于1950年发表他的著名论文《计算机与智能》以来,这些问题一直困扰着计算机科学家和哲学家。在大多数科学家甚至无法就思维的正式定义达成一致的情况下,确定这个问题的答案似乎也不公平。为了说明围绕高性能AI假设的困惑,我们可以借用著名计算机科学家EdsgerDijkstra的幽默表达。在1984年的一篇论文中,他将机器是否可以思考的问题比作“潜艇可以游泳吗?”之类的问题。或者“飞机能飞吗?”虽然这些问题看起来很相似,但大多数说英语的人都会同意飞机实际上可以飞,但潜艇不会游泳。这是为什么?这种比较的基本观点是,如果没有统一的思维定义,那么对机器是否会思考的痴迷似乎无关紧要。对高性能人工智能的主要反对意见之一是,就其本质而言,无法确定一台机器是否真的可以思考。该论点源于有史以来最著名的数学定理之一。哥德尔不完备性定理当我们谈论历史上对思维方式产生广泛影响的最伟大的数学理论时,哥德尔不完备性定理当之无愧。1931年,数学家库尔特·哥德尔通过证明他著名的不完备性定理证明了演绎法的局限性。哥德尔定理指出,任何形式的可以执行算术运算的理论都没有证据表明该理论中的陈述为真。长期以来,不完备性定理一直被用来反对强人工智能。该理论的支持者认为,高性能人工智能代理将无法真正思考,因为它们受到不完备性定理的限制,而人类思维显然不受限制。这一论点引起了很大争议,许多高性能人工智能的从业者对此表示反对。高性能AI学派最常提出的论点是,不可能确定人类思维是否遵循哥德尔定理,因为任何证明都需要形式化人类知识,而我们知道这是不可能的。意识争论在人们对人工智能的激烈争论中,我最喜欢的争论是意识。机器真的可以思考还是可以模拟思考?如果机器在未来能够思考,这意味着它们将需要有意识(即意识到它们的状态和行为),因为意识是人类思维的基石。对高性能人工智能的质疑引发了从哥德尔不完备性定理等经典数学理论到人工智能平台的纯技术限制的争论。然而,生物学、神经科学和哲学的交叉点仍然是争论的焦点,并且与人工智能系统中的意识有关。什么是意识?关于意识有很多定义和争论,这足以阻止大多数人继续追求它在人工智能系统中的作用。大多数意识的定义都涉及自我意识或实体了解其精神状态的能力,但是,当涉及到人工智能时,自我意识和精神状态也没有明确定义,所以我们就像飞进兔子洞并迷失了方向。要应用于人工智能,意识理论需要更加务实和技术化,而不是哲学化。我最喜欢的遵循这些原则的意识定义来自物理学奖得主加来道雄,他是纽约大学理论物理学教授,也是弦理论的创始人之一。几年前,加来博士提出了他所谓的“意识时空理论”,汇集了生物学和神经科学等领域对意识的定义。加来博士在他的理论中对意识的定义如下:“意识是利用各种参数(如温度、空间、时间和与他人相关的参数)的多重反馈回路来创建世界模型以实现目标(如如寻找伴侣、食物、住所)。”意识的时空定义直接适用于人工智能,因为它基于大脑创建世界模型的能力,不仅在空间(如动物)中,而且与时间(向后和向前)相关。从这个角度来看,加来博士将人类意识定义为“一种创造世界模型,然后通过评估过去来及时模拟未来的意识形式”。也就是说,人类的意识和规划未来的能力直接相关。除了其核心定义外,时空意识理论还包括几种类型的意识:0级:包括机动性降低的植物等生物体,它们使用温度等少量参数来创建其空间模型。级别1:爬行动物等有机体,它们可以移动并具有神经系统。这些生物使用更多其他参数来形成它们的空间模型。第2级:哺乳动物等生物体不仅基于空间,还基于与其他人相关的世界模型。等级3:理解时间关系并具有想象未来的独特能力的人类。人工智能系统有意识吗?意识是人工智能界争论最激烈的话题之一。这里的AI意识,指的是AI对自己的“心理状态”进行自我感知的能力。上一篇文章介绍了著名物理学家加来道夫博士首创的一个框架,用于评估四个不同层次的意识。在Kaku博士的理论中,0级意识描述了植物等生物,它们根据温度等参数评估其现实。爬行动物和昆虫在创建具有包括空间在内的新参数的世界模型时表现出1级意识。2级意识涉及基于情感和与其他物种的关系创建世界模型。哺乳动物是与2级意识相关的主要群体。最后,我们可以根据涉及未来模拟的世界模型将人类意识归因于3级意识。基于加来博士的意识框架,我们可以评估当前这一代人工智能技术的意识水平。大多数专家都认为,当今的AI代理可以归类为1级或2级早期意识。将AI代理排名为第1层涉及许多因素,包括流动性。今天,许多人工智能代理已经能够实现移动并根据周围的空间开发环境模型。然而,大多数AI代理在受限环境之外操作时遇到很多困难。空间评估并不是将AI代理置于1级意识的唯一因素。用于创建模型的反馈回路的数量是另一个需要考虑的超级重要因素。我们以图像分析为例。即使是最先进的视觉人工智能算法也使用相对较少的反馈回路来识别物体。如果我们将这些模型与认知能力、昆虫和爬行动物进行比较,它们似乎并不复杂。所以,是的,当前的人工智能技术具有昆虫意识。进入二级意识一些人工智能技术已经稳定地表现出二级意识的特征,有几个因素促成了这种发展。人工智能技术正在获得更高层次的理解和模拟情绪,以及感知周围的情绪反应。除了基于情感的人工智能技术的发展,人工智能代理在群体环境中的运作也越来越有效,在这种环境中,它们需要相互合作或竞争才能生存。在某些情况下,小组工作甚至可以创造新的认知技能。作为最近具有2级意识的AI代理的例子,我们可以想到像DeepMind和OpenAI这样的公司的工作。最近,DeepMind进行了实验,要求AI代理人生活在资源有限的环境中。当资源丰富和稀缺时,AI代理的行为会有所不同。随着代理需要相互交互,行为会发生变化。在最近的OpenAI模拟中也可以找到一个有趣的例子,其中AI代理能够使用少量符号创建自己的语言,以便更好地在其环境中共存。主流AI解决方案仍处于早期阶段,但提高AI主体的意识水平是当前AI技术栈中最重要的目标之一,而Level2意识是下一个研究领域。提升到第三层意识人工智能系统中的第三层意识仍然是一个活跃的争论话题。然而,最近的系统,如OpenAIFive或DeepMindQuakeIII已经清楚地展示了AI代理的长期规划和协作能力,因此我们可能很快就能实现这一目标。人工智能系统有意识吗?我的回答是肯定的。将Kaku博士的时空意识理论应用于人工智能系统,很明显人工智能代理可以表现出一些基本的意识形式。考虑到目前人工智能技术的能力,我会将人工智能主体的意识置于一级(爬虫类)或二级基础水平。至于第三层,虽然还很遥远,但我想绝不是天方夜谭。本文转载自微信公众号“读芯”,可通过以下二维码关注。转载本文请联系核心阅读公众号。