一位神经科学家的探索:这就是机器如何能够有意识地感知年轻程序员。相反,这部电影的主角是他的评估对象“Ava”,这是一个令人惊叹的人形机器人,混合了童心和高深莫测的头脑。和大多数烧脑电影一样,《机械姬》让观众自己判断“伊娃”是否有自我意识。在这个过程中,它也巧妙地回避了迄今为止挑战大多数人工智能题材电影的一个棘手问题:什么是意识,机器能有意识吗?好莱坞导演不是唯一被这个问题搞糊涂的群体。随着机器智能的飞速发展,它不仅可以在魔兽争霸(DOTA)、围棋等游戏中击败人类玩家,而且在对战过程中不需要人类的专业知识,这一问题再次进入了科学的主流.机器处于意识的边缘吗?来自法兰西学院的认知科学家StanislasDieng、来自UCLA的HakwanLau和来自巴黎EcoledesArtsandSciences的SidCouvedel联合在久负盛名的《科学》杂志上发表了网上评论文章,他们认为:虽然机器是还没有意识到,未来有明确的发展路径。原因?他们说,意识是“绝对的计算能力”,因为它是一种特定类型的信息处理的结果,而这种处理是由大脑硬件实现的。没有魔法汁液,没有额外的火花——事实上,体验部分(“什么是意识?”)甚至都不是实现意识所必需的。如果意识仅仅由我们三磅重的大脑计算,那么同样质量的机器就只存在将生物信息转化为代码的问题。他们写道,正如当前强大的机器学习技术大量借鉴神经生物学一样,我们或许能够通过研究大脑中产生意识的结构并像计算机算法一样实现它来实现人工意识。从大脑到机器人毫无疑问,人工智能领域从我们对大脑意识的形式和功能的理解中受益匪浅。例如,“深度神经网络”是一种让AlphaGo以压倒性优势战胜人类棋手的算法架构,它部分基于我们脑细胞自组织的多层生物神经网络。网络。“强化学习”是一种允许AI从数百万个示例中学习的“训练”类型,它源于一种具有数百年历史的技术,就像大家都熟悉的狗训练:如果它发送如果它得到正确的响应(或结果),奖励它;否则,要求它再试一次。从这个意义上说,人工意识似乎可以很容易地通过将人类意识的框架转化为机器来实现。只有一个大问题。StuartRussell博士在2015年接受《科学》杂志采访时说:“人工智能领域没有人在开发有意识的机器,因为我们无能为力,对它真的一无所知。”他是《人工智能:现代方法》的作者。多层意识在我们考虑编码机器意识之前,最困难的部分是弄清楚意识到底是什么。对于Dion和他的同事来说,意识是一个具有两个“维度”的多层结构:C1意识,大脑中已有的信息,以及C2意识,获取和监控关于自己的信息的能力。两者都是意识所必需的,但两者不需要同时存在。假设您正在开车,低燃油警告灯亮起。在这里,我们注意到油箱灯是C1意识,一种我们可以做出反应的心理表征:我们注意到它,采取相应行动(重新加满油箱),然后回忆并谈论它(“我在郊区用完了汽油!”)迪昂在接受《科学》杂志采访时解释说,“我们想要从意识中分离出来的第一个意思是全球可用性的概念”。他补充说,当你意识到一个词时,你的整个大脑都会意识到它,因为你可以以不同的方式使用信息。然而,C1Consciousness不仅仅是一本“心理速写本”。它代表了一个集成架构,允许大脑从我们对相关事件的感觉或记忆中提取多种形式的信息。与通常依赖于胜任一组给定任务的特定“模块”的潜意识处理不同,C1是一个全局工作区,它允许大脑整合信息、决定行动,并一直工作到***。就像《饥饿游戏》(饥饿游戏)一样,我们所说的“意识”可以采取任何形式的表达,并且在某种程度上“意识”赢得了进入这个心理工作空间的竞赛。不同的大脑计算回路共享这些获胜的意识,并且仍然是指导人类行为的决策过程的核心。作者解释说,由于这些特征,C1意识是一种高度稳定的全局意识,可以触发所有相关的大脑回路。对于智能汽车等复杂机器,C1Awareness是解决低燃料灯等迫在眉睫问题的第一步。在这个例子中,灯光本身就是一个潜意识信号:当它闪烁时,机器上的所有其他进程都不会察觉,而汽车——即使拥有最先进的视觉处理网络——也不会犹豫。过了加油站。借助C1Awareness,油箱会向汽车的内置计算机发送警报(让光线进入汽车的“有意识的大脑”),而后者又会查看内置的全球定位系统(GPS)以找到下一个加油站。“我们认为,在一台机器中,这转化为一个系统,该系统从封装信息的任何处理模块获取信息,并将该信息提供给任何其他处理模块,以便它们可以使用它,”Dieng说。这是第一种意识。”元认知C1意识在某种程度上反映了大脑获取外部信息的能力。C2意识与大脑内部信息有关。作者将意识的第二个方面C2意识定义为“元认知”,反映你是否知道或感知某事,或者你是否只是犯了一个错误。(“我想我可能在最后一个加油站加油,但我忘了保留收据以防万一”)。这个维度反映了意识和自我意识之间的联系。C2是让你在做出选择时感到不那么自信或更有信心的意识水平。用计算术语来说,它是一种算法,可以预测一个决定(或计算)是正确的,尽管它通常被视为一种“直觉”。C2意识也会影响记忆力和好奇心。这些自我监控算法让我们知道一些人拥有或从未听说过的东西,称为“元记忆”,它是负责感知舌尖上是否有东西。迪翁说,监控我们知道(或不知道)的内容对儿童尤为重要。“孩子们绝对需要监控他们所知道的,这样他们才能提出问题,对事物产生好奇并了解更多,”他解释道。“我们受益于意识的两个方面的协同工作:C1意识将相关信息带入我们的心理工作空间(同时丢弃其他‘可能’的想法或解决方案),而C2意识促进有意识的思考是否带来有益反应的长期反映回到低油量警示灯的例子,C1感知让汽车在第一时间解决问题,这些算法让信息整体共享,让汽车感知到问题。但在为了解决这个问题,汽车需要一个关于自身的“认知目录”,一种对现成资源的自我意识,比如加油站的GPS地图。“拥有这种自我知识的汽车就是我们所谓的C2感知汽车。“因为信号是全球性的,并且因为它以类似于机器观察自身的方式进行监控,所以汽车可以担心燃料不足的情况,然后像人类一样降低燃料消耗并寻找加油站。”作者指出,“当今大多数机器学习技术系统都缺乏自我监控”。但他们的理论似乎正朝着正确的方向发展。在这几个例子中,无论是在算法结构中还是作为一个单独的网络,自我监控系统都已经实现并且人工智能已经产生了“本质上是元认知的内部模型使代理能够发展对自身的理解是有限的,隐藏的,功能性的。“走向有意识的机器具有C1意识和C2意识的机器会像有意识一样表现吗?很有可能:智能汽车会“知道”它看到了什么,对此非常确定,然后向其他部分报告并找到解决问题的最佳方案。如果它的自我监控机制出现故障,它也可能会“产生幻觉”,甚至出现类似于人类的视觉幻觉。多亏了C1意识,Dion说,它将能够使用它所拥有的信息,并灵活地使用它,而有了C2意识,它就知道自己认知范围的极限。“我认为[机器]应该是有意识的”,而不仅仅是人类的专利。如果您觉得意识不仅仅是整体信息共享和自我监控,那么您并不孤单。作者也承认:“意识的纯粹功能定义可能会让一些读者不满意。”“但我们正试图采取激进的立场,或许可以简化事情。迪昂总结道:“意识是功能的一种属性,随着我们不断地为机器添加功能,这些属性将在某种程度上塑造什么的特征我们称之为意识。””
