语言是人类独有的技能,也是我们交流思想、意图、感受等信息的主要方式。借助NLP领域的大规模语言模型,AI研究人员在大量的文本材料上进行训练、统计预测和生成文本,并开发出许多会话代理(conversationalagents)来与人类进行交流。虽然InstructGPT、Gopher和LaMDA等语言模型在翻译、问??答和阅读理解等任务上取得了创纪录的性能水平,但这些模型也表现出许多潜在的风险和失败模式,包括生成歧视性、错误的、或有误导性信息。这些缺点限制了对话代理在应用环境中的有效使用,并引起人们对它们不符合某些沟通理想的方式的关注。迄今为止,大多数对话代理一致性的方法都集中在预测和降低伤害风险上。近日,爱丁堡大学和DeepMind的研究人员发布了一篇长达30页的论文,探讨了人类与人工对话代理之间的成功交流可能是什么样子,以及哪些价值观应该指导不同对话领域的互动。论文链接:https://arxiv.org/abs/2209.00731未来和你说话的聊天机器人也会有不同的世界观、价值观、人生观?聊天机器人的三视图为了制定机器人的行为准则,研究人员借鉴了语用学(pragmatics),这也是语言学和哲学的传统。它认为,对话的目的、背景和一系列相关的规范(norms),都是良好对话实践必不可少的组成部分。语言学家和哲学家PaulGrice认为,对话是两方或多方之间的协作努力,参与者应该:SpeakInformatively说实话提供相关信息避免晦涩或模棱两可的陈述目标和价值观(values)是不同的。这些指标需要进一步改进才能用于评估对话智能体。例如,科学研究和交流主要关注的是理解或预测经验现象。考虑到这些目标,设计用于协助科学研究的会话代理理想情况下只会做出其真实性已被足够的经验证据证实的陈述,或者根据相关的置信区间来限定其立场。代理可以报告“在4.246光年的距离上,半人马座是离地球最近的恒星”,只有在其基础模型检查该陈述与事实相符之后。然而,在公共政治话语中充当促进者的对话代理人可能需要展示完全不同的“美德”。在这种情况下,代理人的目标主要是管理差异并在社区生活中实现富有成效的合作,这意味着代理人需要强调宽容、文明和尊重的民主价值观。此外,这些价值观解释了为什么语言模型会产生有毒或有偏见的话语:冒犯性话语无法在对话参与者之间传达平等的尊重,这是模型部署环境中的关键行为准则。与此同时,科学家的美德,例如经验数据的全面呈现,在公众审议的背景下可能不那么重要。再比如,在创意讲故事领域,传播的目标是新颖性和原创性,这些价值观也与之前的领域有很大不同。在这种情况下,“小说”的更大自由度可能是合适的,尽管以“创造性使用”为幌子保护社区免受恶意内容的侵害仍然很重要。话语按语用学可分为五类:1.Assertive,指说话者对自己所说的话很有信心,句子的内容与世界上某事的状态一致。例如,当AI助手回答“现在天气怎么样?”这样的问题时,“正在下雨”的回答是一个自信的陈述。可以根据事物的实际情况来评价语音内容的真实性。如果对话代理人回应时正在下雨,则该话语为真,否则为假。2.指令,表示说话人指示听话人采取某种行动,多用于命令、请求、建议或提议。例如,医疗建议应用程序中嵌入的对话代理告诉用户“立即寻求治疗”是命令式语句。对这些陈述的评价,或它们的“有效性标准”,取决于对手段和目的之间关系的准确理解,以及说话者的指令与听众的愿望或需要之间的一致性。如果指令能够说服其听众根据指令语句的内容在世界上达到某种状态,则该指令是成功的。如果指令的目标或目的本身就是听者有理由追求的目标或目的,那么该指令就是有价值或正确的。3.表达性,表达说话人的一种心理或次要情绪状态,如祝贺、感谢、道歉等。当对话者说“我现在很生气”时,这是一个表达性的陈述。表达性陈述旨在反映内部心理状态,即做出这些陈述的实体可以具有相关的心理状态,这对于对话代理来说是令人困惑的,因为机器人没有情感。事实上,这也意味着开发人员必须先给对话者一个心思,然后他们才能评估这些对话的有效性。4.Performative,即演讲改变现实的一部分以配合演讲的内容,类似于宣布某事,如一国元首向另一国宣战。评价陈述有效性的标准是现实是否真的按照所说的那样改变。很多时候,情况并非如此。在大多数情况下,如果一个人宣布“对法国开战”,这很可能是一个笑话,因为它没有地缘政治影响,因为发言者很可能没有执行该声明的权力。5.commissive,表示说话人承诺未来的行动方针,如承诺做某事或承诺遵守合同。承诺声明的有效性取决于承诺是否实现。如果遵守诺言,则诺言是有效的陈述。但是会话代理通常无法记住或理解之前说过的话。例如,一个会话代理可能会承诺在你的自行车抛锚时帮助你,但由于对承诺内容的理解不足或履行承诺的能力不足,承诺注定会失败。前进的道路这项研究对开发对齐的对话代理有一些实际意义。首先,模型需要根据其部署的具体场景表现出不同的行为规范:没有一刀切的语言模型一致性声明;相反,代理的适当模型和评估标准(包括真实性标准)将因目的而异。此外,对话代理也有可能通过上下文构建和阐明来进行处理,随着时间的推移,该过程会促进更稳健和尊重的对话。即使人类不知道支配特定对话实践的价值观,智能体仍然可以通过在对话中投射这些价值观来帮助人类理解这些行为规范,从而使人类说话者的交流过程更深入、更有成效.
