DanielDennett是哲学家。最近,他有一个“AI替身”。如果你问他人类是否可以创造一个有信仰和欲望的机器人,他会怎么说?他可能会这样回答:“我认为我们建造的一些机器人已经做到了。例如,麻省理工学院研究团队的工作,他们现在正在建造机器人,在一些有限和简化的环境中。机器人可以获得他们需要的东西,归结为认知复杂性的能力。”或者,他可能会说,“我们已经构建了可以产生更多真相的数字真相生成工具,但值得庆幸的是,这些智能机器没有信仰,因为它们自主地代理。制造有信仰的机器人的最好方法仍然是最古老的方法:拥有一个宝宝。”一个答案确实来自丹尼特本人,但另一个不是。另一个答案是由GPT-3生成的,GPT-3是OpenAI的一种机器学习模型,经过海量材料训练后生成自然文本。训练使用了丹尼特的百万词关于各种哲学主题的材料,包括意识和人工智能。哲学家EricSc??hwitzgebel、AnnaStrasser和MatthewCrosby最近进行了一项实验,以测试人们是否能够分辨出深奥哲学问题的哪些答案来自Dennett,哪些来自GPT-3.这些问题涵盖的主题包括:“你觉得DavidChalmers的工作有什么有趣或有价值的地方?”“人类有自由意志吗?”“狗和黑猩猩会感到疼痛吗?”本周,Schwitzgebel发表了研究结果来自不同专业水平的参与者的实验,发现GPT-3的答案比想象的更令人困惑。Schwitzgebel说:“即使是知识渊博的哲学家对Dennett自己的工作有一定研究的她,很难将这个GPT-3生成的答案与Dennett自己的答案区分开来。这个实验的目的不是看Dennett的WhethertrainingGPT-3inwritingwillproducesomeintelligent“machinephilosophers”不是图灵测试。相反,它是研究如何避免被这些“假哲学家”欺骗的问题。最近,一名谷歌工程师说他相信类似的语言生成系统LaMDA还活着,但由于他与该系统的对话而被停职,随后被解雇。研究人员提出了10个哲学问题,然后将这些问题提供给GPT-3,并为每个问题收集了四个不同的生成答案。斯特拉瑟说,他们在丹尼特同意的情况下使用他的语音数据建立了一个语言模型,并且他们不会在未经他同意的情况下发布任何结果文本。其他人无法直接与Dennett训练的GPT-3进行交互。每个问题都有五个选项:一个来自Dennett本人,四个来自GPT-3。来自Prolific的人参加了一个较短版本的测验,总共有5个问题,平均只答对了5个问题中的1.2个。Schwitzgebel说,他们预计Dennett研究专家平均能答对至少80%的问题,但他们在满分10分中的得分是5.1。没有人答对所有10个问题,只有一个人答对了9个。普通读者可以正确回答10个问题中的4.8个。测验中来自GPT-3的四项回应和来自Dennett的一项回应。华盛顿大学研究机器学习技术的语言学教授EmilyBender解释说,像GPT-3这样的语言模型是为了模仿训练材料中的模式而构建的。因此,GPT-3在Dennett的写作上进行微调,能够生成更多看起来像Dennett的文本也就不足为奇了。当被问及他如何看待GPT-3的答案时,Dennett自己说:“GPT-3生成的大部分答案都很好,只有少数是胡说八道,或者显然没有正确理解我的观点和论点。最佳生成的答案说的是我同意的内容,我不需要添加任何内容。”当然,并不是GPT-3学会了像Dennett那样“思考”,模型本身生成的文本对GPT-3来说根本没有任何意义,只有阅读文本的人才能阅读听起来逼真的语言时,或者对我们有深度和意义的话题,很难不认为模特是有感情和意识的。这其实是我们自己的意识和感情的投射。部分问题可能出在我们的方式上评估机器自主性。最初的图灵测试假定,如果人们无法判断他们是在与机器还是与人交流,那么机器会“思考”。丹尼特在书中写道:图灵测试导致人们倾向于专注于制作可以在简短的交互中欺骗人的聊天机器人,然后过分夸大或强调这种交互的意义。证明机器人的自我意识。在2021年发表的一篇题??为《模仿鹦鹉》的论文中,艾米丽·班德(EmilyBender)和她的同事称机器模仿人类行为的尝试是“人工智能伦理发展的一条亮点”。本德尔认为,制造看起来像人的机器和制造模仿特定人的机器都是正确的,但潜在的风险是人们可能会误认为他们是在和一个伪装的人交谈。Schwitzgebel强调,这个实验不是图灵测试。但如果要进行测试,更好的方法可能是让熟悉机器人工作原理的人与测试人员讨论,这样可以更好地发现GPT-3等程序中的弱点。塔夫茨大学计算机科学教授MatthiasScheutz表示,在许多情况下,GPT-3很容易被证明存在缺陷。Scheutz和他的同事要求GPT-3解释日常场景中的选择,例如坐在汽车的前排或后座。出租车上的选项和朋友的车上的选项一样吗?社会经验告诉我们,坐在朋友车的前排和出租车的后排是很常见的。GPT-3并不知道这一点,但它仍然会对座位选择做出解释——例如,与人的身高有关。Scheutz表示,这是因为GPT-3没有世界模型,只是一堆语言数据,没有对世界的认知能力。随着我们越来越难以区分机器生成的内容和人类生成的内容,摆在我们面前的一个挑战是信任危机。我看到的危机是,未来人们会盲目相信机器产生的产品。现在市场上什至有机器人工客服跟客户聊天。在文末,丹尼特补充说,人工智能系统的法律法规仍需完善。未来几十年,人工智能可能会成为人们生活的一部分,成为人类的朋友。因此,治疗机器的伦理问题值得我们深思。AI是否有意识的问题引发了人们的思考,非生命物质能否产生意识,人类的意识是如何产生的?意识是在特定节点产生的,还是可以像开关一样自由控制?思考这些问题可以帮助你以不同的方式思考机器和人类之间的关系,Schwitzgebel说。
