当前位置: 首页 > 科技观察

GPT带来的In-ContextLearning发展现状如何?这篇综述阐明了

时间:2023-03-13 20:11:22 科技观察

大型语言模型(LLM)随着语言模型和语料库规模的逐渐扩大而显示出更大的潜力。最近的一些研究表明,法学硕士可以使用情境学习(ICL)来执行一系列复杂的任务,例如解决数学推理问题。来自北京大学、上海人工智能实验室和加州大学圣塔芭芭拉分校的十位研究人员近日发布了一篇关于情境学习的综述论文,详细介绍了当前ICL研究的进展。论文地址:https://arxiv.org/pdf/2301.00234v1.pdfin-contextlearning的核心思想是类比学习。下图描述了语言模型如何使用ICL进行决策。首先,ICL需要样本来形成表示上下文,而这些样本通常是用自然语言模板编写的。然后,ICL将查询问题与演示上下文相关联以形成提示,并将其输入到语言模型中进行预测。与监督学习需要在训练阶段使用逆梯度更新模型参数不同,ICL不需要参数更新就可以让预训练的语言模型直接执行预测任务,模型有望学习到演示示例中隐藏的模式并做出相应的预测.正确的预测。作为一种新范式,ICL具有许多吸引人的优势。首先,演示以自然语言格式编写,为与大型语言模型关联提供了可解释的接口。这种范式通过改变演示示例和模板,更容易将人类知识融入语言模型(Liuetal.,2022;Luetal.,2022;Wuetal.,2022;Weietal.,2022c)。简单的。其次,情境学习类似于人类通过类比学习的决策过程。第三,与监督训练相比,ICL是一种免训练学习框架。这不仅可以大大降低模型适应新任务的计算成本,还可以使语言模型成为一种服务(LMaaS,Sunetal.,2022),可以轻松应用于大规模的现实世界任务。尽管ICL前景广阔,但仍有许多问题值得探讨,包括其性能。例如,原来的GPT-3模型具有一定的ICL能力,但有研究发现,这种能力可以通过预训练时的适应得到显着提升。此外,ICL的性能对特定的设置很敏感,包括提示模板、上下文样本选择和样本顺序等。此外,ICL的工作机制虽然看似合理,但仍不够明确,目前研究不多。可以初步说明其工作机理。这篇评论文章得出结论,ICL的稳健性能依赖于两个阶段:开发大型语言模型的ICL功能的训练阶段;以及推理阶段,其中大型语言模型根据特定于任务的演示进行预测。在训练阶段,语言模型直接按照语言建模目标进行训练,例如从左到右生成。尽管这些模型并未专门针对情境学习进行优化,但ICL的能力仍然令人惊讶。现有的ICL研究基本上是基于训练有素的语言模型。在推理阶段,由于输入和输出标签均由可解释的自然语言模板表示,因此可以从多个角度优化ICL性能。综述论文进行了详细的描述和比较,并选择了合适的例子进行论证,针对不同的任务设计了具体的评分方法。这篇reviewpaper的大致内容和结构如下图所示,包括:ICL的正式定义(§3)、warmup方法(§4)、promptdesignstrategy(§5)和scoringfunction(§6)。此外,第7节提供了对当前探索ICL底层工作原理的深入研究。§8进一步为ICL提供了有用的评估和资源,§9介绍了证明ICL有效性的潜在应用场景。最后,§10总结了ICL领域存在的挑战和潜在方向,为该领域的进一步发展提供参考。感兴趣的读者可以阅读论文原文了解更多研究细节。