最近,Meta又来了一个大动作。他们发布了他们新开发的聊天机器人——BlenderBot3,并公开收集用户使用数据作为反馈。据说可以和BlenderBot3聊什么,SOTA级别的聊天机器人。它真的那么聪明吗?上图是网友与BlenderBot聊天的聊天记录。如您所见,这真的是闲聊。用户说他要去练瑜伽,问BlenderBot要做什么。机器人说他正在写他的第九本书。令人惊叹的BlenderBot3,是Meta人工智能研究实验室打造的最新聊天机器人,也是Meta首款175B参数机器人。模型的所有部分、代码、数据集等,都是对所有人公开的。Meta表示,在BlenderBot3上,用户可以就互联网上可用的任何话题进行聊天。BlenderBot3应用了Meta开发的两项最新的机器学习技术——SeeKeR和Director,构建了一个对话模型,让机器人从交互和反馈中学习。参与开发BlenderBot3的研究工程师KurtShuste表示,“Meta致力于公开发布我们在演示这款聊天机器人时收集的所有数据,希望我们能够改进对话式人工智能。”从内容上看,BlenderBot3并不是新的。它的底层模型仍然是LargeLanguageModel,以及LLMS,这是一个非常强大(尽管有些缺陷)的文本生成软件。与所有文本生成软件一样,BlenderBot3最初是在巨大的文本数据集上进行训练的,BlenderBot可以在这些数据集上挖掘各种统计模式,然后生成语言。就像我们说的烂GPT-3。除了上面提到的这些,BlenderBot3还有一些亮点。与以往的聊天机器人不同,在与BlenderBot聊天时,用户可以点击机器人给出的答案,在网上查看这句话的出处。换句话说,BlenderBot3是可引用的。但是,这里有一个关键问题。也就是说,一旦任何聊天机器人处于公开测试阶段,就意味着任何人都可以与之互动。一旦测试人群基数增加,肯定会出现一波想“玩坏”的人。这也是Meta团队下一步研究的重点。聊天机器人被玩坏的情况并不少见。2016年,微软在Twitter上发布了一款名为Tay的聊天机器人。关注过Tay的人一定还有印象。开始公测后,Tay开始从与用户的互动中学习。不出所料,没过多久,在一小群麻烦制造者的影响下,Tay开始输出一系列与种族主义、反犹太主义和厌女症有关的言论。微软见势不妙,不到24小时就让Tay下线。Meta表示,自从Tay遭遇滑铁卢之后,AI世界有了很大的发展。BlenderBot有各种安全保证,可以防止Meta像微软那样走上同样的道路。并且初步实验表明,随着越来越多的人可以参与到与模型的交互中,机器人可以从对话体验中学到更多。随着时间的推移,BlenderBot3将变得越来越安全。看来Meta在这方面做得还不错。“Tay和BlenderBot3之间的主要区别在于,Tay旨在从用户交互中实时学习,而BlenderBot是一个静态模型,”Facebook人工智能研究中心(FAIR)的研究工程经理MaryWilliamson说。是的,BlenderBot能够记住用户在对话中所说的话(如果用户退出程序并稍后返回,它甚至会通过浏览器cookie保留此信息),但此数据仅用于进一步改进系统。威廉姆森说,“今天绝大多数的聊天机器人都是以任务为导向的。以最简单的客服机器人为例。从智能上看,它实际上只是一个接一个的编程对话树,逐渐缩小用户的需求范围,并且在最后还是人类对接。”真正的突破是让机器人像人一样自由交谈,这正是Meta想做的,除了将BlenderBot3上线,Meta还发布了底层代码、训练数据集和更小的模型变体,研究人员可以申请通过此处的表格访问。
