本文经AI新媒体量子比特(公众号ID:QbitAI)授权转载,转载请联系出处。继BERT之后,谷歌在NLP模型上又有大动作!在今天的谷歌I/O大会上,一口气发布了两个新模型:LaMDA和MUM,都是基于Transformer架构。LaMDA(LanguageModelforDialogueApplications),相对于BERT最大的优势,就是可以自然对话。谷歌CEOSundarPichai强调,专门为对话应用构建的LaMDA模型是一个开放域,目的是就任何话题进行交流。能够在其他领域进行对话而无需重新训练模型是非常重要的。而以多模态为特点的MUM(Multi-TaskUnifiedModel),用谷歌的话说就是“比BERT强1000倍”。那么,这两个已经发布的新语言模型到底有多强大呢?让我们一起感受一下。LaMDA:基于Transformer架构,自然对话是开放的,可以从一个特定的话题开始,以一个完全不同的话题结束。就像:一开始可能会和朋友聊天气,然后慢慢说这两天风大雨大,弄乱了发型。最后,两人在村口的理发店里愉快的聊起“托尼先生”。剪出有创意的发型。这种曲折的对话总是让聊天机器人很为难,因为机器人通常只能先预设一个比较狭窄的聊天话题。但现在LaMDA可以自由切换话题,开启一种更自然的与人对话的方式。在I/O的简短演示中,谷歌展示了LaMDA的实际应用。LaMDA的一大亮点是可以“角色扮演”。比如有些同学想了解更多关于太空的知识,想问LaMDA关于冥王星的问题,LaMDA会以冥王星的身份回答,让学习一下子变得生动有趣。聊完之后,LaMDA显得很舒服,回答说:如果要出去旅游,记得穿暖和点,因为这里很冷。当被问及“你还想让人们了解你什么”时,它回答说:我想让人们知道我不仅仅是一个随意的冰球,我实际上是一个美丽的星球。LaMDA还可以回答“有人去过冥王星吗?”这个问题。事实上,LaMDA了解包括冥王星在内的数百万个主题。感觉就像和一个知识渊博的朋友聊天。虽然你不知道自己在谈论哪个话题,但它总能给你丰富而合理的答案。事实上,LaMDA的会话技巧多年来一直在发展。与包括BERT和GPT-3在内的许多最先进的语言模型一样,它也基于Transformer架构。Transformer是谷歌在2017年发明并开源的一种神经网络架构,可以读取很多单词或句子来训练模型。它可以完全解开单词之间的关系,并预测它认为接下来会出现哪些单词。LaMDA显然在对话方面受过更多训练,并且在开放式对话中表现出奇的好。Pichai评价LaMDA:LaMDA在公平性、准确性、安全性和隐私性方面达到了非常高的标准。虽然LaMDA目前还没有出现在任何产品中,但谷歌正在继续研究这项技术,最终将用于Assistant、Search和Workspace等产品。MUM:LaMDA,同时解锁各种信息的“独特武器”,是自然对话的一大进步,但仅限于文字。人们在相互交流时,会同时使用图片、文字、音频和视频等方式进行交流。所以谷歌今天也发布了他们的MUM模型。它是一种多语言和多模式模型,可以通过执行多个任务来解锁各种类型的信息。谷歌高级副总裁PrabhakarRaghavan表示:MUM可以同时接受超过75种语言的数据,让模型能够跨语言获取知识,它可以同时理解各种形式的信息,包括文本、图像和视频。MUM会在不同的语言资源中寻找最相关的结果,最后以用户偏好的语言呈现。当被问到:“我已经成功登顶了亚当斯山,明年秋天我想登顶富士山,我应该做些什么准备?”资料,根据富士山和亚当斯山的季节和地质的不同,提出最合理的登山路线、时间和装备建议,比如建议提问者带一件防水外套等。MUM也会友情给出一些链接相关视频或博客,让提问者有更多深入研究的机会。当然,它的所有答案都来自网络上的文章、视频和图片。MUM还可以依靠上下文和多种类型的信息,例如图像和对话来回答。例如,给它一张鞋子的照片并询问“我可以用它去爬富士山吗?”MUM可以理解图像的内容和分析背后的意图,通过搜索之前的数据让提问者知道鞋子是否合适。Google在2019年推出的BERT经历了很多,MUM也会经历这些模型“从问题到解决方案”的过程。例如,研究小组正在寻找表征机器学习偏差的模式,以避免在MUM中引入偏差。研究团队还在应用从最新研究中吸取的经验教训,以确保MUM的搜索尽可能高效,使其更加稳健。至于目前有多强大,正如谷歌官方所说:MUM和BERT一样是建立在Transformer架构上的,但是功能却强大了1000倍。大家都知道BERT有多强,是不是瞬间对MUM充满了小期待呢?网友:居然还能化解矛盾,厉害!谷歌在I/O大会上一发布这两组模型,立刻引起了网友们的关注。有网友提到:我注意到GPT-3的说法经常自相矛盾。我完全相信可以创建一个更好的系统来更好地解决冲突,而不是一开始就刻意避免冲突。巧合的是,一位谷歌员工也提到:我认为聊天机器人的一个共同缺点是,它们可能会通过提供一些论据或论据,甚至只是提出问题来反驳。但是当我尝试使用LaMDA时,我发现LaMDA比我预期的更能抵抗矛盾。这表明谷歌正在努力的方向是:积极解决自然语言处理中的问题,而不是一味地回避问题。基于强大的问答交流模式,机器可以像朋友一样和你聊天,并且可以给出很多实用的答案,这让我们看到了自然语言处理未来的趋势:不仅可以全面提高AI,同时也能处理各种信息,回归“以人为本”的初衷。下一步,这两套模型能否进一步优化?让我们拭目以待!
