当前位置: 首页 > 科技观察

人工智能有意识吗?先从意识的定义说起

时间:2023-03-13 00:49:00 科技观察

本文转载自雷锋网。如需转载,请到雷锋网官网申请授权。毫无疑问,人类有自己的意识。从某种意义上说,这种“意识”甚至可以看作是人类智慧的内涵之一。随着“人工智能”的深入发展,“AI是否具有意识”逐渐成为科学家们心中的疑问,“意识”也被视为衡量AI是否智能的标准之一。例如,2月中旬,OpenAI首席科学家IIyaSutskever在推特上发起了一场关于AI意识的讨论。当时他说:今天的大型神经网络可能已经在拥抱意识了。他的观点立即引起了众多AI大咖的讨论。针对IIyaSutskever的观点,图灵奖获得者、MetaAI首席科学家YannLeCun首先抛出了反对意见,直截了当地给出了一个观点:“Nope”。(没有。)JudeaPearl也支持LeCun,称现有的Deep神经网络还不能“深入理解”某些领域。几轮针锋相对后,朱迪亚·珀尔表示:……事实是,我们当中没有一个人对“意识”有一个正式的定义。也许我们唯一能做的就是向研究意识的历代哲学家请教……这是一个起源问题。如果需要讨论“AI意识”,那么:什么是“意识”?有“意识”是什么意思?要回答这些问题,仅靠计算机知识是不够的。其实,关于“意识”的讨论可以追溯到古希腊的“轴心时代”。从此,“意识”作为人类认识论的本质,成为后世哲人无法回避的话题。AmandaAskell是OpenAI的学术和前研究科学家,随着关于AI意识的对话的兴起,她对这个话题有了有趣的见解。图片说明:AmandaAskell,她的研究方向是AI与哲学的交叉领域在她最新的博文《My mostly boring views about AI consciousness》中,Askell探讨了现象学意义上的“现象意识”(phenomenalconsciousness),而不是“意识”(accessconsciousness)。现象意识强调主体的体验过程,注重感受、体验和被动注意;而自我意识则强调主体的主观能动性,强调主体的主观能动性注意。例如,如果你在轻松的音乐下做作业,你可以感受到背景音乐(现象意识),但你不会注意它的具体内容;确切地知道你在做什么。这有点像计算机视觉和认知科学中常用的两种不同的注意力机制。现象意识对应于“自下而上”,而有意识意识对应于“自上而下”。说明文字:一眼就能看出书中的大字是“现象意识”,意识到其中的细节属于“有意识的意识”。Askell同意更高的智力与自我意识更相关,这也可以有效地区分人类与其他动物,但她“更感兴趣的是老虎和岩石之间的区别,而不是人和老虎之间的区别”,并且现象意识足以做出这种区分。而她认为,如果出现“现象意识”,意味着一些道德伦理问题也会出现。这就是为什么她认为研究意识很重要。1当前的AI系统是否有意识?Askell做了一个有趣的观察:今天的人工智能系统比椅子更有可能拥有非凡的意识,但远不如老鼠,甚至连昆虫、鱼或双壳类动物也不如。她将AI系统粗略地类比为植物的领域——因为植物似乎以需要规划的方式行事,并且可以做似乎需要内部和外部交流的事情。人工智能系统似乎表现相似。但她也相信,与植物或双壳类动物相比,人工智能系统作为一个整体在未来具有更大的意识潜力。特别是,未来人工智能研究更多受生物学启发的神经网络可能会导致更多与意识相关的架构、行为和认知系统。图例:一些研究表明,植物也有意识和智慧。他们还可以感知疼痛并与环境进行良好的交流。那么在考虑AI是否有意识时,我们应该考虑哪些方面的证据呢?Askell列出了四种类型的证据:架构、行为、功能和理论。建筑证据是指系统的物理结构与人类的相似程度,例如,大脑的结构远比手指的结构更有意识。行为证据是指实体执行与意识、认知等相关的行为,例如意识到周围环境、对外部刺激做出反应,或者更复杂的行为,例如言语和推理。功能证据考虑其目标以及这些目标与环境的关系。例如,一张桌子或椅子并没有真正受到来自其环境的进化压力,因此它没有任何理由发展出老鼠对其环境的那种意识。理论证据包括理论本身的连贯性和说服力。当今研究心灵的哲学家一般有两种理论倾向:一种是包容学派,如认为原子可以有意识的泛心学派;另一个是机械派,他们否认非人类实体有意识。但无论倾向如何,人工智能的意识都可以从以上四种不同的证据来讨论。2人工智能是否有意识重要吗?绝大多数人工智能从业者不会考虑到意识这一特性。人工智能和意识似乎只存在于一些关于未来的科幻电影的想象中。然而,意识与人工智能的结合在安全、伦理、偏见和公平方面越来越受到学术界和工业界的关注。Askell认为,人工智能的非凡意识意味着它可能会发展与其创造者有很大关系的道德规范。尤其是当人工智能出现失误或受到“虐待”时,其创造者理应承担一定的责任。Askell讨论了道德伦理学中的两个重要概念:道德主体和道德患者。其中,“道德演员”是具有辨别善恶、是非的能力,并能承担后果的演员,如成年人;而“道德关怀对象”则不能区分善恶,即无法在道德上加以约束。没有后果的实体,例如动物或小婴儿。道德关注的对象Askell认为,一旦一个实体具有类似于快乐和痛苦的知觉(sentient),它就极有可能成为道德关注的对象。发现道德关注的对象(例如猫)受苦是不合理的,而普通人却未能尽其道德责任减轻其痛苦。同时,她认为现象意识是知觉的必要条件,更进一步,现象意识是成为道德关注对象的前提。一个可能的争论是某些群体是否具有道德地位,或者具有更高的道德地位。道德地位来源于伦理,是指一个群体能否在道德意义上讨论自己的过错。例如,大多数生物都有道德地位,而无生命的物体则没有。过分强调一个群体的地位似乎暗示这个群体比其他群体更重要。这“与给予动物、昆虫、胎儿、环境等更多道德地位的论点一样令人担忧”。Askell指出,帮助一个群体并不一定要以牺牲其他群体为代价。例如,吃素对动物和人类健康都有好处。“团队通常不会争夺相同的资源,我们通常可以使用不同的资源来帮助两个团队,而不是在他们之间进行权衡。如果我们想增加用于全球扶贫的资源,我们可以将现有的捐款从捐助转变为慈善不是唯一的选择——我们还可以鼓励更多的人捐款和捐助。”因此,当未来的有感知力的人工智能系统变得道德关怀时,并不意味着我们不关心其他人。幸福不再是一个问题,也不意味着我们需要转移现有资源来帮助他们。道德行为者道德行为者倾向于以良好的方式行事,避免以坏的方式行事,因为他们知道善恶。当他们做出道德上或法律上不可接受的事情时,他们将受到相应的惩罚。道德行为者最薄弱的部分只需要对积极和消极的刺激做出反应。也就是说,另一个实体可以惩罚行为者的不良行为或奖励其良好行为,因为这将改善行为者未来的行为。值得注意的是,Askell指出,接受刺激和获得反馈似乎并不需要非凡的意识。现在的机器学习系统在某种意义上已经符合这个规则,比如需要模型来减少损失函数,或者强化学习中更明显的“奖励”和“惩罚”。图例:强化学习的奖励反馈机制那么更强的道德行为者呢?我们通常认为,只有当Ta有能力分辨是非,并且没有被愚弄采取其他行为时,他们才能对自己的行为负道德责任。比如,一个人劝朋友在森林里放火,如果朋友被抓住了,不管他怎么解释是别人教唆放火的,还是那个人放火(也就是,朋友本人)承担道德责任。而不是说服他的人。但是,如果一个人训练他的狗生火,在这种情况下,我们会将大部分道德责任放在训练员身上,而不是他的宠物身上。为什么我们要追究人类纵火犯的道德责任,而不是训练有素的狗?首先,人类纵火犯有能力考虑他们的选择并选择不听从他们朋友的劝说,而狗缺乏这种推理他们的选择的能力。其次,狗从不明白它的行为是错误的,也从不表现出做错事的倾向——它只是做它被训练要做的事情。假设一个先进的机器学习系统在更强烈的意义上成为一个道德行为者,它完全能够理解是非,充分考虑可行的选择,并按照自己的方式行事,这是否意味着:如果一个机器学习系统做了出了什么问题,创建这个系统的人应该免除道德责任吗?阿斯凯尔不同意这一点。为了更细致地考虑这个问题,她建议向创作者询问以下问题:创造特定实体(例如人工智能)的预期影响是什么?创作者付出了多少努力来获取有关其影响的证据?他们能在多大程度上控制他们创建的实体的行为(无论是直接影响他们的行为还是间接影响他们的意图)?他们在力所能及的范围内为改善实体的行为付出了多少努力?即使创作者竭尽全力确保ML系统运行良好,他们仍然可能会失败。有时,这些失败是由于创建者的错误或疏忽造成的。Askell认为,创造道德行为者肯定会使事情复杂化,因为道德行为者比自动机更难预测,比如自动驾驶对路况的判断。但这并不免除创作者对其所创作的AI系统的安全问题负责的义务。3人工智能意识方面的工作有多重要?目前,人工智能领域对意识(甚至其他哲学思想)的研究还很少,但已经有学者就此课题进行跨领域合作研究。比如在GPT-3问世之后,专注于哲学问题的博客DailyNous专门开辟了一个版块讨论语言哲学对AI的思考。但与此同时,Askell强调,关于AI意识的讨论不应仅仅停留在哲学上的抽象思辨,还应致力于相关实用框架的开发,比如建立一系列对机器意识和感知的有效评估。已经有几种方法可以检测动物的疼痛,似乎可以从中汲取一些灵感。反之,我们越了解人工智能意识,就越了解人类自身。因此,虽然关于AI意识的讨论还没有达成统一的共识,但讨论本身已经是一种进步。期待更多的AI意识研究工作。