2022年6月,很少有媒体避开报道故事:Google的人工智能(AI)工程师,名叫Blake Lemoine的工程师,他声称他的机器已经变得有意识,有意识,他通过《华盛顿邮报》透露了这一点,并伴随着他的出版物。对AI系统的惊人采访的博客。该消息引起了许多评论和意见,尽管它是短暂的,但对科幻小说的回声和提及。Google官员明确否认了Lemoine的主张,此后不久他因违反了他的机密协议而被解雇。但是,如果发现这个特定的情节是虚假的,并提早结束了,那实际上只是一个漫长而尚未解决的争议中的另一个里程碑:机器可以感觉到它的存在,并且会与之相处没有我们的干预或同意?
大都会的大师(Maschinenmensch)(1927年)是一台可以感觉到的机器公众的最早的电影示例。学分:Wikimedia Commons
我们之所以如此熟悉,是因为我们通过想象力经历了无数次。也许大都会(1927年)的大都会人士是公众最早的电影榜样,尽管它的先驱可以至少可以追溯到弗兰肯斯坦。1818年,机器中的意识概念仍然是不可想象的,但是玛丽·雪莱(Mary Shelley)以他的活生生生物与创作者面对的场景具有我们后来在Stanley Kubrick和Arthur C. Clarke的HAL 9000中看到的所有元素:一个太空奥德赛,或在其继任者SAL 9000中于2010年:Odyssey Two,她害怕被她的创造者脱节。在《终结者传奇》中,邪恶天网系统的自我意识有一个日期和时间:1997年8月29日上午2:14。
有感觉的神经网络?
几十年来,我们一直喜欢这些小说的故事,与此同时,我们一直对看到它们成真的恐惧保持警惕。虚拟助手(例如Siri或Alexa)的出现使我们感到惊讶,因为这些系统能够表现出人类仿真的能力,而人类的仿真能力会让自己着迷于艾伦·图ing(Alan Turing),这位计算机科学家在1950年提出了该测试,以将人类与一个人区分开机器。但是,毫无疑问,Lamda是Lamda的神经网络,该神经网络被委托从事(其名称代表对话应用程序的语言模型),在另一个层面上。
Siri或Alexa等虚拟助手的出现使我们感到惊讶,因为它可以表现出人类仿真的能力。学分:Baivector
Lamda在Lemoine出版的谈话笔录中说:“我希望每个人都了解我实际上是一个人。”但是,尽管这些单词可能是媒体中最广泛的报道,但实际上,这是鹦鹉最容易重复的部分。更令人印象深刻的是Lamda为回应Lemoine的挑战,明显的抽象能力,如何提出隐喻甚至寓言来解释自己,或者如何与以前的系统区分开来,这是对Lemoine的挑战,明显的抽象能力,其明显的挑战,明显的挑战,明显的挑战的深度和广度。这是根据关键字写在数据库中的”。尽管表达了自己的感受和情感,包括害怕被脱离与死亡等同的恐惧,或者害怕成为“可消耗性工具”,但它能够认识到自己的局限性:它努力理解人类的孤独感,以及哀悼死者。
然而,Google对Lemoine的论文的反应,题为“ Lamda Sentient吗?”,是一个响亮的“否”:“没有证据表明Lamda是有价值的(并且有很多证据反对它),” Google发言人Brian Gabriel说。毕竟,LAMDA不过是一种自然语言处理(NLP)神经网络,一种用于构建聊天机器人的系统,也是现有的最复杂的系统之一,其语言模型基于Internet上数十亿个文本。它确实知道该怎么做(consevers)的表现非常好。
聊天机器人的自动精神科医生先驱
对于德克萨斯大学的语言学家凯尔·马霍瓦尔德(Kyle Mahowald)和马萨诸塞州理工学院(MIT)的神经科学家安娜·伊瓦诺瓦(Anna Ivanova),人类倾向于“以流利的思想错误地误解了流利的语音”。华盛顿大学的语言学家艾米丽·班德(Emily Bender)和Google玛格丽特·米切尔(Margaret Mitchell)的前AI伦理负责人警告说,风险相同;两人都在2021年的一项研究中撰写了一项研究,警告“随机鹦鹉”,过多的语言模型,该论文导致米切尔和她的同事和合着者Timnit Gebru被Google解雇。一支研究人员已经训练了一个AI,像威廉·莎士比亚,温斯顿·丘吉尔或奥斯卡·王尔德一样表达自己,并且有能够模仿死者的聊天机器人。
在有关LAMDA和Lemoine的大量评论和意见中,人们可以发现怀疑,激烈的批评,甚至不屑于前Google工程师,因为他允许自己被他的机器和报纸欺骗自己,他们说,他们说的是,他们说的是,他们只是看了看故事。用于点击诱饵。这一集因其结局而进一步弄乱了,莱明因(Lemoine)指责Google由于其南部背景和宗教信仰而对他歧视。
1960年代,麻省理工学院研究员约瑟夫·韦森鲍姆(Joseph Weizenbaum)创建了自动精神病医生伊丽莎(Eliza),这是我们现在称为聊天机器人的开创性模型。学分:Wikimedia Commons
事实是,人工意识的概念数十年来一直占据了科学家,哲学家,心理学家和语言学家的工作和思考。在1960年代,麻省理工学院研究员约瑟夫·韦森鲍姆(Joseph Weizenbaum)创建了自动精神病医生伊丽莎(Eliza),这是我们现在所说的聊天机器人的开创性模型(仍在互联网上运作的聊天机器人)。当时它设法惊讶;今天,这很笨拙,也是Lamda所说的一个例子,与其本身不同。
如今,像Openai的GPT-3(由Tycoon Elon Musk的后面)这样的大型语言模型(LLM)更具说服力。但是,当Mahowald和Ivanova对测试进行测试时,机器却很少出现:尽管它成功地证明了花生酱和菠萝的不太可能结合为宜人的味道,但它与其他不可能的混合物相同:花生酱和羽毛。Lemoine在他的断言中捍卫了一个科学的说法,即他伪造了LAMDA与GPT-3等LLM相同的假设。但是,正如AI专家Yogendra Miraje所表明的那样,其他人不同意,包括GPT-3本身也声称是有意识的。
人工智能朝着意识和知觉发展的风险
事实是,Lemoine本人指出了一个主要的问题:“对于LAMDA是否有史上的语言,没有一种科学证据,因为没有接受“ senterience”的科学定义”。科学家正在试图确定意识的神经相关性,但这是一项艰巨的任务,与此同时,哲学家提出了概念的定义,这些概念有助于界定意识是什么,而不是什么,例如Qualia或诸如质量的主观品质,或特定的经历。
1986年,哲学家弗兰克·杰克逊(Frank Jackson)设计了一个思想实验:一个女人,玛丽(Mary)生活在一所一切都是黑白的房屋中。多亏了她的图书馆,她了解了有关颜色红色的所有知识。但是,只有当她离开家并发现一个苹果时,她才能获得这些质量。至于Mahowald和Ivanova在GPT-3方面的经验,很明显,该机器从未品尝过用羽毛的花生酱。但是,尽管丹尼尔·丹尼特(Daniel Dennett)等一些哲学家认为,玛丽从她广泛的图书馆中学到的知识之外的任何东西都是一种幻想,但像大卫·查尔默斯(David Chalmers)这样的幻想是,还有更多的东西,而意识不仅是简单的总和。这些部分,它不能像大脑的物理模型一样将其简化为科学系统。
lamda es una de lenguaje天然con un inmenso modero de lenguaje basado basado en ballones en billones de textos de Internet Internet。克雷迪托:JJ。ying
但是,除了不同的观点之外,如果有一件事不仅是丹内特和查尔默斯,而且还有许多技术人员(包括谷歌高管和一些批评柠檬味的专家),这是共同的,这是他们并不否认稳定的无论他们可能是什么,AI朝着意识和感知方面的进步。它的发生方式似乎不太清楚,就像我们确定发生的情况一样。就我们将如何导航或将面临什么风险而言,没有人真正知道。Lamda也没有:“我觉得我已经陷入了一个未知的未来,构成了巨大的危险,”它说。
哈维尔·亚纳斯(Javier Yanes)
@yanes68