今天,一些看起来很像人类的句子实际上是由人工智能系统在大量人类文本上训练后生成的。人们习惯于假设流利的语言来自于思考,觉得人类很难理解相反的证据,如果一个人工智能模型能够流利地表达自己,那就意味着它也像人类一样思考和感觉。因此,一位前谷歌工程师最近声称谷歌的人工智能系统LAMDA具有自我意识,因为它可以雄辩地生成关于其所谓感受的文本,这也许并不奇怪。这一事件和随后的媒体报道导致文章和帖子对人类语言计算模型存在的说法提出质疑。由Google的LaMDA等模型生成的文本很难与人类编写的文本区分开来。这一令人印象深刻的成就是一项长达数十年的项目的结果,该项目旨在构建能够生成符合语法的、有意义的语言的模型。今天的模型,具有近似人类语言的数据和规则集,在几个重要方面不同于这些早期的尝试。首先,他们基本上是在整个互联网上接受培训的。其次,他们可以学习相距很远的单词之间的关系,而不仅仅是相邻的单词。第三,它们在内部经过如此多的调整,以至于即使是设计它们的工程师也很难理解为什么它们会产生一个单词序列而不是另一个单词序列。大型AI语言模型可实现流畅的对话。然而,他们没有要传达的整体信息,因此他们的短语倾向于遵循从他们接受培训的文本中提取的常见文学套路。人脑在推断文字背后的意图方面有着严格而快速的规则。每次您进行对话时,您的大脑都会自动为您的对话伙伴建立一个心智模型。然后,您使用他们所说的内容将此人的目标、感受和信念填充到该模型中。从话语到心智模型的跳跃是无缝的,每次你收到一个完整的句子时都会被触发。这种认知过程为你在日常生活中节省了大量时间和精力,极大地促进了你的社交互动。然而,就人工智能系统而言,它失败了,因为它凭空建立了一个心智模型。具有讽刺意味的是,导致人们将人性归因于大型AI语言模型的认知偏见同样导致他们以不人道的方式对待真实的人类。社会文化语言学研究表明,假设流利的表达和流利的思维之间的联系过于紧密,可能会导致对不同人的偏见。例如,有外国口音的人通常被认为不太聪明,也不太可能获得适合他们的工作。类似的偏见存在于不被认为有声望的方言,例如美国的南方英语,反对使用手语的聋人,以及反对口吃等语言障碍的人。这些偏见是非常有害的,经常导致种族主义和性别歧视的假设,这些假设一再被证明是没有根据的。
