当前位置: 首页 > 科技观察

200字带你读完一本书,GPT-3已经为小说写好了总结

时间:2023-03-13 12:30:36 科技观察

本文经人工智能新媒体量子比特(公众号ID:QbitAI)授权转载,转载请联系出处转载。现在,AI可以帮你用200字读懂12万字的小说!例如《傲慢与偏见》的原文有121567个词:△图源OpenAI官网AI分四个阶段进行总结:首先将原文概括为276个摘要(24796个词),再进一步压缩为25个摘要(3272个词),然后是4篇摘要(475字)。最后得到了一个175字的摘要,长度只有原片段的千分之一:粗略翻译一下,关键情节都说到点子上了:这个理解让人看着某方便面就流口水了眼泪。这是OpenAI的最新模型,可以为任意长度的书籍编写摘要。平均10万多字的训练文本可以压缩到400字以内。而这也是源于OpenAI的精妙刀法:没错,就是将GPT-3数据集的书籍/小说部分抽取出来进行训练得到的模型。话不多说,让我们来看看这个微调版的GPT-3模型。递归任务分解首先,将“总结一段文本”的任务进行算法分解。如果文字够短,直接总结;如果它很长,将文本分成小块并递归地总结每个块。这形成了一个总结任务树:只有叶任务对书中的原始文本进行操作。此外,生成的摘要应放置在相同的深度并按顺序连接。比如上图中蓝色任务的前一个摘要输出,用虚线表示,这样每个摘要自然从前一个任务(前文)流出,保证那些相距较远的段落能够真正“连接上下文””。接下来开始训练:根据上面的任务树,将书籍及其子摘要递归归类为任务;从树中提取一个节点,对应一个带训练的总结任务;获取训练数据并给节点输入;使用训练数据对模型进行微调。其中,所有训练数据均来自GPT-3中的书本部分。研究人员跳过非叙事类书籍而选择小说(平均超过100,000个单词),因为这些与上下文相关的文本更难完成摘要任务。这个训练过程可以用新的模型、不同的节点采样策略和不同的训练数据类型(演示和比较)进行迭代。对于演示数据,使用标准交叉熵损失函数执行行为克隆(BC)。对于比较数据,强化学习(RL)用于针对人类偏好训练的奖励模型。强化学习也有采样任务的三种变体:fulltr??eefirstsubtreefirstleafsummary训练完成后,任务的最终目标是追溯叙事的时间线和整体主题。每个摘要子任务的目标是将文本压缩5到10倍,长度上限为128到384个符号。与现有同类模型的实验阶段相比,研究人员使用了Goodreads2020榜单上40本最受欢迎的书籍,包括奇幻、恐怖、爱情、推理等近20种类型。然后让两个人类研究人员和模型同时总结,要求双方总结的质量一致性接近80%。模型大小分为175B和6B,训练方式也分为以上三种强化学习的变体任务。在最终的结果中可以看出,第一子树RL和整树RL的摘要任务最接近人类水平:175B模型5%以上的摘要得到6分(满分7分)分),超过15%的摘要获得5分:研究团队还在最近提出的BookSum数据集上进行了测试,结果优于现有的长文本摘要模型:此外,摘要是否可以用于回答问题关于原文的提问也是评价方法之一。因此,该团队将他们的总结模型应用到NarrativeQA问答数据集上,可以看出,虽然没有在问答上进行明确的训练,但他们在所有指标上都取得了最好的成绩:作者介绍这项研究来自OpenAITheOpenAIAlignmentteam,他们表示目前没有开源这个模型的计划。论文第一部作品JeffWu,毕业于麻省理工学院,在加入OpenAI之前曾在谷歌工作。合著者欧阳龙毕业于哈佛大学,获得学士和博士学位。斯坦福大学认知心理学学士学位。主要研究领域为认知科学和概率规划研究。论文:https://arxiv.org/abs/2109.10862OpenAI官网介绍:https://openai.com/blog/summarizing-books/