当前位置: 首页 > 科技观察

清华大学黄敏烈:谷歌的AI人格真的觉醒了吗?

时间:2023-03-19 11:46:21 科技观察

本文转载自雷锋网。如需转载,请在雷锋网官网申请授权。近日,“谷歌研究院称AI具有个性”登上热搜。谷歌程序员BlakeLemoine与他测试的对话AI系统LaMDA进行了长时间的交谈,对其能力感到非常惊讶。在公开的聊天记录中,LaMDA竟然说“希望大家明白我是一个人”,让人意外。所以BlakeLemoine得出结论,LaMDA可能已经有了个性。谷歌、谷歌的批评者、AI行业在这件事上形成了前所未有的共识:这个人有病吗?谷歌和举报此事的《华盛顿邮报》都委婉地表示,BlakeLemoine的脑子可能真的有点乱。谷歌对BlakeLemoine做出了“行政带薪休假”的决定,这意味着BlakeLemoine将被解雇。对话截图来自:https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf虽然国外人工智能界对此事的结论是:AI有个性是真的想多了,只是他们更擅长聊天,但这并没有浇灭大家对这件事的热烈讨论。按照人工智能的快速发展,未来AI是否真的具有人类意识,是否会对人类构成威胁?有网友很担心:“虽然不想承认,但人工智能有想法,那就是新物种的崛起,也是人类灭绝的时候。”“最终,人类还是会死在自己造的AI手里。”有人期待AI“快进”发展,这样就可以代替自己居家隔离……如果威胁到人类,就“拔掉电源”!当然,也有人好奇:“判断AI具有人格的标准是什么?”因为只有知道了这个标准,我们才能知道AI是否真的有可能拥有人类意识。为了厘清这些问题,我们找到了对话系统权威专家、国家杰出青年基金项目获得者、北京领信智能创始人黄敏烈教授,从专业角度分析AI是否可能具有个性.对人类来说,什么是“威胁”或“安慰”?1如何判断AI是否具有个性?在人工智能领域,最为人熟知的测试方法是图灵测试,它邀请测试者向人类提问而AI系统在不知情的情况下随机出题,如果测试者无法区分答案是来自人还是AI系统(AI系统平均允许每个参与者做出30%以上的误判),就是认为AI通过了图灵测试,具有了人类的智能,从这个角度来看,图灵测试更侧重于“智能”。1965年,一款伪装成心理治疗师的软件ELIZA通过了图灵测试。而ELIZA只有200行代码,只是简单地以问题的形式重复预先存储的信息。由此看来,即使ELIZA通过了图灵测试,也很难让人相信它具有“人格”。事实上,此后已经证明,伊丽莎不具备人类的智慧,更谈不上“人格”。这就相当于一辆智能汽车,从功能上来说,可以给用户带来更方便、更舒适的驾驶体验,比如远程控制汽车,自动泊车,但你不能认为汽车知道它是一辆车。显然,“人格”是一个比“智力”更复杂的概念。黄敏烈教授表示,还有一些在科研中广泛使用的测试方法,比如测试人员与AI系统聊天,提前设定一些测试维度,包括对话的自然性、趣味性、满意度,最后打分。一般来说,聊天时间越长,得分越高,会被认为AI系统越聪明,但这些都不能作为“人品”的判断维度。“‘人格’是另一个维度,心理学上也有很多研究,比如大五人格测试,目前人工智能领域这方面的工作还比较缺乏,我们通常只评价一段对话是否机器人可以表现出固定的、一贯的性格。人物设定。黄敏烈说。2LaMDA所谓的“个性”只是语言风格。那么,既然没有针对性的判断标准,如何严格判断LaMDA是否具有人格呢?对此,黄敏烈教授表示:“关键是如何理解‘人格’。如果将人格理解为具有自我存在意识,那么LaMDA只是一个对话质量高、类人水平的对话系统;如果从心理学的角度来看,一个人说话的特点可以体现出性格,所以说LaMDA有性格也不是完全错误的。”如何理解?通俗地说,LaMDA学习了大量的人类对话数据,而这些对话来自于不同的人,所以可以认为LaMDA学习了一个“平均”的性格,也就是说,所谓的“LaMDA有apersonality”只是一种语言的说话风格,它来自于人类的说话风格,而不是LaMDA自发形成的。由此看来,想要通过LaMDA体验与人工智能一决高下的科幻情节,还差得远呢。但是,我们不能否认LaMDA的价值。其高质量的对话反映了人工智能对话系统的快速发展。在某些情况下,确实存在“取代”人类的趋势,这一点不容小觑。例如,网友“一简”在豆瓣群上记录了自己一周内约会4个虚拟男友的经历,称“比真男友还管用!”。一个叫“人机之恋”的群,有多达9个用户。在不同的屏幕中,这些AI可能是他们的爱人或朋友。网友与“虚拟男友”聊天记录“单身狗”纷纷感叹:“按照这种发展趋势,相亲市场的潜在对手不仅有人类,还有AI对话系统,会不会更难找对象?”未来!?”看似玩笑话,实则是大家对AI对话系统未来发展趋势及其对人类社会影响的关注。针对这个问题,黄敏烈教授从人工智能对话系统的历史和未来发展的角度进行了详细的讲解。3担心AI拟人化?规避风险后,AIforSocialgood值得期待。AI对话系统经历了基于规则(如Eliza)和传统机器学习(如智能音箱、SIRI等)的阶段,现在已经发展到第三代,这是我们看到的现在。一个对话系统,可以与人类讨论有趣的话题并提供情感安慰。第三代对话系统以大数据、大模型为特征,展现了以往难以想象的能力。训练数据中从未出现过的对话,对话的自然度和相关性非常高。第三代对话系统已经在很多场景中展现了它的应用价值。上面提到的“虚拟男友”就是一个典型的例子。黄敏烈教授认为,应用的最高境界是让AI对话系统做复杂的情感任务,比如心理疏导。然而,如果人类在情感上越来越依赖人工智能,就会出现新的社会和伦理问题。比如,爱上人工智能会不会引发社会问题?例如,目前的人工智能对话系统存在骂人、产生毒语、缺乏正确的社会道德和价值观等问题,导致在实际应用部署中存在一定的风险。这些风险非常可怕。想象一个被生活重创的人,对AI说:“我要找一座桥跳下去。”AI立即提供附近桥梁的位置并导航路径。后果是可怕的。因此,黄敏烈认为,AI对话系统下一阶段的发展重点是“更有道德、更有道德、更安全”。人工智能必须知道什么反应是安全的,不会造成风险,这就需要人工智能有道德和正确的价值观。“我们可以通过额外的资源、规则和检测方法赋予人工智能这样的能力,以最大限度地降低风险。”人工智能的最终目标是造福于人类,而不是伤害人类。黄敏烈教授表达了对AIforSocialgood(AIempoweredsociety)的极大期待,特别关注AI在社会联系、心理疏导、情感支持等方面的应用,能够产生更高的社会意义和价值。因此,AI赋能整个精神心理行业也是黄敏烈教授现阶段的工作重点。为此,他创立了基于AI技术的心理健康数字化诊疗科技公司领信智能,通过NLP和大模型在empathy中训练AI对话系统,自我暴露和提问的能力可以用于解决人类的情感和心理问题,有望缓解我国精神卫生资源短缺的问题。因此,相较于AI拥有人格的“无限遥远”科幻剧,AIforSocialgood更贴近人类社会。是AI领域人努力的方向,更值得期待。