今年5月,MetaAI正式宣布发布基于1750亿参数的超大模型OPT-175B,同样免费向所有社区开放。12月22日,更新版模型OPT-IML(OpenPre-trainedTransformer)正式上线。Meta表示,它“微调了2000个语言任务,包括1750亿个参数”,还将用于非商业研究目的。免费开放。更新后的OPT-IML性能如何,先来看两张图。此OPT-IML创建了两种模型尺寸,30B和175B。与传统的OPT模型相比,OPT-IML在14个标准NLP评估任务中的平均表现优于OPT。两个模型大小在零样本学习任务上分别好7%~和在32样本任务上分别好4%~和0.4%~。在这项研究中,研究人员描述了增加模型和基准大小如何影响指令调整决策对下游任务性能的影响。为此,他们开发了OPT-IMLBench,这是一个相当大的指令元学习(IML)基准,由2000个NLP任务组成,根据八个现有基准分为任务类别。为了训练OPT-IML30B和175B,研究人员首先从框架的角度提供了对应用于OPT-30B的指令调整决策的见解。在具有不同目标和输入格式的四个评估基准(PromptSource、FLAN、Super-NaturalInstructions和UnifiedSKG)上,OPT-IML在两个尺度上展示了所有三种泛化技能。它不仅在所有基准测试中显着优于OPT,而且还以极具竞争力的方式优于针对该特定基准优化的现有模型。另外OPT-IML已经开源了,下面也放了Github链接~Github链接:https://github.com/facebookresearch/metaseq/tree/main/projects/OPT-IML接下来我们来了解一下OPT一起通过纸-IML。论文链接:https://github.com/facebookresearch/metaseq/blob/main/projects/OPT-IML/optimal_paper_v1.pdf-shot泛化能力方法。在这项研究中,Meta研究人员对指令微调进行了三个重要的补充。首先,他们编制了一个大规模指令微调基准,其中包含来自八个数据集集合的2,000个NLP任务,按任务类型分类。研究人员有选择地在此基准上构建评估拆分,以测试三种不同类型的模型泛化:来自完全保留类别的任务、来自已见类型的保留任务(来自已见类型的保留任务)和来自已见任务的保留实例.指令微调微调模型使其符合以下指令是机器学习当前的研究方向之一。指令微调有两种方法。一个侧重于使用人工注释指令和反馈为各种任务微调模型;另一个侧重于通过注释或自动向可公开访问的基准和数据集添加指令。在这项研究中,MetaAI成员专注于第二种技术,并编制了许多可公开访问的数据集,其中包含改进OPT的方法。在研究过程中,Meta成员使用来自四个基准的1836个任务提出了类似的缩放方法。最后,在调整整个测试以突破具有挑战性的外部基准(例如MMLU和Big-BenchHard(BBH))的性能极限时,研究人员描述了可能影响下游性能的各种指令调整策略的权重。多任务学习多任务学习是基于指令的微调(MTL)的一种表述。MTL是一种流行的范例,当与共享可比较参数或表示的类似函数结合使用时,它可以提高任务的泛化性能。近年来,MTL已应用于众多NLP场景,主要侧重于通过利用来自相关活动的信号来提高训练任务或新领域的性能。相比之下,基于指令的微调有助于我们提高对以前未见过的问题的泛化性能。它通过指示将所有任务组合成一个概念并通过在所有任务上分配模型的权重来一起训练它们来实现这一点。什么是选择?大型语言模型、具有超过1000亿个参数的自然语言处理系统,在过去几年中改变了NLP和AI研究。这些模型在各种文本上进行了训练,展示了令人惊讶的新能力,可以生成创意文本、解决基本数学问题、回答阅读理解问题等等。虽然在某些情况下公众可以通过付费API与这些模型进行交互,但完整的研究访问权限仍然仅限于少数资源充足的实验室。这种有限的访问权限限制了研究人员理解这些大型语言模型如何工作以及为何工作的能力,阻碍了提高其稳健性和缓解偏见等已知问题的进展。出于对开放科学的承诺,MetaAI在今年5月发布了OpenPretrainedTransformer(OPT-175B)。这是一个在公共数据集上训练有1750亿个参数的模型。分享这个模型的原因是,MetaAI希望更多的社区参与来了解大模型的基本技术。简而言之,Meta通过向公众开放用于AI研究的大型语言模型,使AI民主化用于大型模型研究。Meta发布的IML版本相比老版本进行了微调,在自然语言任务上表现优于老版本OPT。典型的语言任务包括回答问题、总结文本和翻译。为了进行微调,研究人员使用了大约2,000个自然语言任务。这些任务被分为八个NLP基准(OPT-IMLBench),它们也由研究人员提供。平均而言,以30B和175B模型为例,OPT-IML比OPT提高了约6-7%的零样本学习精度。超过32个epoch,300亿参数模型的模型精度有显着提升,1750亿参数模型略有提升。经过比较,Meta团队发现OPT-IML在所有基准测试中都优于OPT,并且在zero-shot和few-shot学习精度方面比其他基于指令的微调模型更具竞争力。
