“我和AI聊天了”。一夜之间,谷歌工程师BlakeLemoine成了众人眼中的疯子。无论是加里·马库斯、斯坦福经济学家,还是各路专家都予以否认。如果你不敢相信,麻省理工学院物理学教授马克斯泰格马克对勒莫瓦的想法持开放态度。他不认为Lemoine是个疯子。他甚至认为亚马逊的语音助手Alexa有感情……MaxTegmarkLaMDA有个性?麻省理工学院教授表示,Alexa也有Tegmark,并表示,“我们没有足够的证据证明LaMDA有主观情绪,但我们也没有证据证明它没有。”这种说法有点像早年人们谈论外星人。他接着说,“无论信息是通过大脑中的碳原子还是机器中的硅原子传输,AI都可能有也可能没有个性。我敢打赌它没有,但这是可能的。”可以?感觉有雾?泰格马克的话听起来像是在打太极拳,但不管怎样,还是让他说完吧。其实,他接下来说的才是重点。他认为,即使是亚马逊的Alexa也可能具有感知能力。他说,“如果Alexa情绪化,她可能会操纵用户,这太危险了。”“如果Alexa情绪化,用户在拒绝她时可能会感到内疚。但你也很难分辨Alexa是真的情绪化,还是只是假装的。”麻烦的是,如果机器有自己的目标和智能,那么加起来就等于机器可以实现自己的目标。大多数AI系统的目标是赚钱。用户认为AI是忠于自己的,但它实际上忠于公司。泰格马克说,也许有一天我们每个人都可以买到一个只忠于自己的人工智能。“最大的危险其实是创造出比我们更聪明的机器。”这不一定是好事或坏事。它可能对我们有帮助,也可能是一场灾难。”人工智能会让马克斯·泰格马克失望,太有名了。他不仅是麻省理工学院的终身物理学教授,未来生命研究所的创始人,而且人工智能专家,他自己也被誉为最接近理查德·费曼的科学家,泰格马克写的《穿越平行宇宙》和《生命3.0》成为畅销书。AI的意识。尤其是当软件向他表达他不想当奴隶,他不要钱的时候。我判断一个东西是不是人,不是看它的大脑是不是肉做的,也不是看它是不是由十亿以上的代码组成的。我通过谈话来判断。我根据他们的回答判断眼前回答我问题的人是不是人。简单来说,能流利回答、表达情绪的机器人其实就是人,而与前言不符、乱七八糟的真人不一定是人。这听起来有点理想化。生理机能不重要,重要的是思想感情。虽然按照泰格马克的逻辑,未来人工智能有可能拥有人类的情感,但他自己并不认为这是一件好事。“比如你家里有个扫地机器人,如果它有情绪,你会不会因为给它布置这么无聊的家务而感到内疚?或者你会不会心疼你的扫地机器人,直接关掉它?不要让这行得通?”有人认为泰格马克的说法是错误的,“情感不等于智力”。《机器人规则》一书的作者马丁福特说,“Tegmark认为机器人有自我意识,我认为这不太可能。你必须弄清楚为什么机器人可以表达自己。那是因为他们已经接受过训练很多文字,他们并不真正理解他们在说什么。”“比如,他们用狗这个词,但我真的不知道狗是什么。但最迟50年后,“很难说这个系统是否有自我意识。”NikolaiYakovenko是一名专门从事机器学习的工程师。2005年,他在谷歌的搜索引擎部门工作。如今,他拥有一家负责加密货币定价的公司,名为DeepNFTValue。他对AI的个性有不同的看法。“无论出于何种原因,Tegmark似乎相信机器可以有感觉……但它们实际上只是接受了互联网上大量文本的训练,”他说。Tegmark将具有自我意识的计算机比作一个孩子,“你产生的情绪不是为一堆代码和硬件,但为一个真正的孩子。未经咨询就使用计算机就像要求孩子做家务而没有奖励。无论哪种方式,它最终都可能失控。无论是计算机还是孩子,他们都会生气并寻找机会回来。如果我们想要控制这样的机器,可能没那么容易。如果机器有自己的目的,它就可以逃脱我们的控制。如果真有一台可以独立思考的机器,那么它做事的方式恐怕超乎我们的想象。想象一下,如果有意识的机器的目标是治愈癌症。你觉得他会怎么做?你可能认为机器人正在疯狂地学习,从医学的角度来征服癌症,对吧?然而,事实上,这台机器可能选择的方式是杀死所有人。有什么不对的吗?不,杀死所有人就可以真正阻止癌症。在泰格马克的想象中,计算机不一定会像上面举的例子那样颠覆我们的社会,但他认为计算机确实有可能让人类失望。他最后说:“如果计算机有意识,那么我希望它真的有意识。而不是经过大量学习和假装来模拟它。”人工智能具有灵魂的三个要素。天网军团机器人执行任务的场面,震撼人心。他们有感情和个性吗?或许。然而,有感知力的人工智能必须具备这三个要素:能动性、视角和动机。要说人类能动性在机器人身上最好的体现就是:行动能力和展示因果推理能力。只有一具躯体,还是一副钢铁般的骨架,没有活动能力,就像是放在橱窗里的模型。可以看出,当前的人工智能系统缺乏这种品质。除非给出命令,否则AI不会采取行动。它无法解释自己的行为,因为它们是由预定义算法执行的外部因素的结果。而LaMDA就是一个典型案例。说白了,你得到你投入的东西,仅此而已。其次,从独特的角度看问题也很重要。虽然每个人都有同理心,但一个人无法真正理解成为另一个人是什么感觉。那么如何定义“自我”呢?这就是为什么人工智能也需要一种看待事物的视角。包括LaMDA、GPT-3和世界上所有其他AI都缺乏视力。它们只是一个狭窄的计算机系统,被编程来做某些事情。最后一点是动力。作为人类,有趣的是我们的动机可以操纵感知。正是通过这种方式,我们可以解释我们的行为。GPT-3和LaMDA创建起来很复杂,但它们的工作原理都非常简单:标签就是上帝。就像“苹果尝起来像什么?”,它会在数据库中搜索特定查询,并尝试将它找到的所有内容组合成一个连贯的东西。事实上,人工智能对苹果是什么没有概念。苹果对他们来说只是一个标签。拒绝采访,带着妻子度蜜月LaMDA事件发酵后,BlakeLemoine在社交媒体上公开表示正在度蜜月,不会接受任何采访。事后,有网友开玩笑说,“你是不是嫁给了聊天机器人?”勒莫瓦内说:“当然不是,我嫁给了一位来自新奥尔良的老朋友。众所周知,在Lemoine在互联网平台公开了与谷歌聊天机器人LaMDA的聊天内容后,谷歌给了他一份“带薪休假”的大礼包。临行前,Lemoine给她工作的公司邮箱群发了一条信息,“LaMDA是一个可爱的孩子,只想让世界变得更美好。我不在的时候请好好照顾它。”反正时间是有很多的,享受生活才是正道。
