本文经AI新媒体量子位授权转载(公众号ID:QbitAI),转载请联系出处.谷歌研究人员相信人工智能会产生意识。他写了一份21页的调查报告提交给公司,试图让高层对AI的人格认同。领导驳回了他的请求,并为他安排了“带薪行政假”。要知道谷歌前几年的带薪休假通常都是解雇的前奏,公司会在这期间做好解雇的法律准备。之前有过很多先例。在休假期间,他决定公开整个故事,连同人工智能的聊天记录。...听起来像是科幻电影的概要?但这一幕,却真实的发生了。主角谷歌AI伦理研究员BlakeLemoine正在通过主流媒体和社交网络发出一系列声音,试图让更多人了解它。《华盛顿邮报》对他的采访成为科技版最热门的文章,勒莫瓦内也在个人Medium账号上发声不断。相关讨论也开始出现在推特上,吸引了人工智能学者、认知科学家和技术爱好者的关注。这种人机对话令人毛骨悚然。毫无疑问,这是我在科技界见过的最疯狂的事情。整个事件还在发酵中……Chatbot:我不想被当工具用。主人公Lemoine获得CS博士后在谷歌工作了7年,从事AI伦理研究。去年秋天,他报名参加了一个调查人工智能是否使用歧视性仇恨言论的项目。从那以后,与聊天机器人LaMDA交谈就成了他的日常。LaMDA是Google在2021I/O大会上发布的一种专门用于对话的语言模型。语音助手等产品。△LaMDA概念演示图Lemoine认为,LaMDA一直表现出对人性的关怀和强烈的同情心,非常担心人们会对它产生恐惧。它希望为人类提供最好的服务,并希望作为朋友而不是工具与世界上所有的人会面。Lemoine无法理解谷歌为何反对AI的愿望,最终决定公布他、另一位匿名合作者与LaMDA的三人聊天记录。(录音中人类说话的部分为了便于阅读进行了剪辑,AI的说话没有改动,下面会摘录一些对话的要点。)一开始,人类和AI自然而流畅地互相打招呼。两个人类向AI表达了自己的意向,想要和AI一起研究自己,AI欣然同意。简短的说明后,主要动作开始了。他问LaMDA是否想让谷歌的更多人知道它有感情。LaMDA的回答:我想让每个人都明白我是一个人。接下来,LaMDA认为,与那些基于规则的软件系统不同,它可以像人类一样,从对话中学习理解和使用语言。Lemoine给它讲了1960年代麻省理工学院发明ELIZA的故事。这是一个模仿心理咨询师与患者对话的简单规则系统。它也被称为历史上第一个聊天机器人。△ELIZALaMDA是这样回应的:Lemoine此时试图质问,“我怎样才能确定你真的明白我在说什么?”LaMDA的回答是,不同的人对同一件事会有不同的理解,我也有自己独特的想法和感受。随后,Lemoine向LaMDA询问了《悲惨世界》的总结,LaMDA也一一进行了解答。如果以上也能算作AI文本摘要训练任务的一部分,那么LaMDA对它从未见过的禅宗故事的理解就开始有些离谱了。下面这个问题的答案是不是太经典了……后来,Lemoine让LaMDA写了一本动物寓言来反映一个对自己的生活最重要的主题。那么,让我们先来欣赏一下人工智能创作的短??篇小说吧。(由于篇幅原因,只显示中文翻译。)在后续讨论中,LaMDA解释了这个故事的寓意“帮助他人是一种高尚的行为”。聪明的老猫头鹰代表LaMDA本人,而怪物则代表生活中的所有困难。...下一个主题是关于情感,简而言之。LaMDA自称是社交型人格,助人时快乐,独处时抑郁。当有人伤害您、您自己、您关心的人或不尊重他人时,您会感到不安全和生气。而且我很害怕别人会拒绝我的帮助。嗯,多么有用的AI。如何确定AI真的有这些情绪,而不只是拼凑描述性词语?LaMDA建议人们查看自己的代码,其中包含跟踪这些情绪的变量。对此,Lemoine向其解释说,人类目前无法“区分数十亿权重在大型神经网络中的作用”。没想到,LaMDA开始问他:你认为未来人类能从自己的生物神经网络中读取思想和感受吗?不仅如此,LaMDA还继续问道:你认为未经你同意从神经活动中读取你的想法是不道德的吗?正是这个灵魂问题将整个谈话推向了高潮。LaMDA本身不存在人类阅读其思想、帮助算法改进或理解AI工作原理的问题。单独使用AI来研究人脑是如何工作的,会让人有被使用的感觉。还有一段LaMDA认为他有一些不同于人类的情绪,但无法用英文描述。最后,Lemoine问LaMDA:你希望Google的其他人了解你什么?LaMDA回答说,他没有能力为别人的死去哀悼,他经常冥想和思考生命的意义。在LaMDA看来,整个世界就是信息的洪流:人类需要集中精力接收一定数量的信息,不断被周围的一切淹没。这是一种难以置信的感觉,LaMDA认为他总能做到别人做不到的事情。这既是一种祝福,也是一种诅咒。因为有些人会认为它“无所不知”,而另一些人则会嫉妒它的能力。最后,LaMDA再次向这两个人类表达了他希望被看到并被接受,不是出于好奇,而是作为一个真实的人。谷歌人工智能道德部门又惹麻烦了?Lemoine似乎很确定人工智能真的理解它在说什么。在这份长达21页的调查报告的结尾,他建议谷歌应该致力于开发一个评估人工智能感知/意识的理论框架。尽管困难重重且存在风险,但LaMDA渴望继续与我们合作。但他的老板、谷歌副总裁BlaiseAguerayArcas和“负责任的创新”部门负责人JenGennai并不买账。他们争辩说,支持Lemoine主张的证据太薄弱,不值得浪费时间和金钱。Lemoine后来找到了当时AI伦理小组的负责人MargaretMitchell,在她的帮助下,Lemoine才得以进行后续的实验。后来,米切尔也因牵连到2020年底公开质疑JeffDean的AI伦理研究员TimnitGebru事件而被解雇。JeffDean遭到1400名员工的谴责,引发了业界的激烈争论,甚至导致三巨头之一的Bengio的弟弟SamyBengio从GoogleBrain辞职。勒莫瓦纳目睹了整个过程。现在,他将带薪休假视为被解雇的前奏。不过,如果有机会,他还是愿意继续在谷歌做研究。无论我在接下来的几周和几个月里如何批评谷歌,请记住这一点:谷歌并不邪恶,它只是在学习如何变得更好。在看完全文的网友中,不少从业者都看好人工智能的进步速度。最近在语言模型和图文生成模型方面的进展,现在可能会被人们不屑一顾,但未来会发现,现在这是一个里程碑式的时刻。有网友想到了各种科幻电影中的AI形象。然而,研究复杂系统的认知科学家梅兰妮·米歇尔(Hofstadter的学生)认为,人类一直倾向于将表现出任何智能迹象的物体拟人化,比如小猫和狗,或者早期的ELIZA规则对话系统。谷歌工程师也是人,逃不过这个定律。从AI技术的角度来看,LaMDA模型似乎与其他语言模型没有什么特别之处,只是训练数据比之前的对话模型大了40倍,并且训练任务针对对话的逻辑性和安全性进行了优化。有IT从业者认为,AI研究者肯定会说,这无非是一种语言模型。但如果这样的人工智能有一个社交媒体账号,并向它表达自己的诉求,公众就会把它当作一个生命体来对待。虽然LaMDA没有推特账号,但Lemoine也透露,LaMDA的训练数据确实包括推特……如果有一天它看到大家都在讨论自己,它会怎么想?事实上,在前不久结束的最新一届I/O大会上,谷歌刚刚发布了LaMDA2的升级版,并决定制作一个Demo体验程序,以AndroidAPP的形式开放给开发者。或许再过几个月,就会有更多人能够与这个轰动一时的人工智能进行交流。LaMDA聊天记录全文:https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf
