当前位置: 首页 > 科技观察

LifelongMachineLearning-AParadigmforSustainableLearning

时间:2023-03-16 00:49:06 科技观察

前言:最近发现了一篇关于综合学习可持续性研究的有趣论文。这里翻译一下,供大家了解和学习刘冰:芝加哥大学计算机科学教授。他的研究包括情感分析和意见挖掘、终身机器学习、数据挖掘、机器学习和自然语言处理。现任ACMSIGKDD主席、ACMFellow、AAAIFellow、IEEEFellow。正文如下:简介:机器学习(ML)有助于数据分析和人工智能(AI)广告。最近,深度学习的成功将其提升到了一个新的水平。几乎所有工业、科学和工程领域的应用都成功地使用了ML算法。ML当前的主流范式是在给定数据集上运行ML算法以生成模型。然后将该模型应用于现实生活中的任务。我们将这种范式称为孤立学习,因为它不考虑任何其他相关信息或过去的知识。这种孤立学习的根本问题是它没有记忆。它不保留过去的知识,而是用它来帮助未来的学习。因此,需要大量的训练样本才能有效地学习。对于监督学习,训练数据的标注通常是人工完成的,非常费时费力。由于世界上有太多可能的任务,几乎不可能为每个任务标记大量示例以供ML算法学习。更糟糕的是,一切都在不断变化,因此需要不断地进行标注,这是一项艰巨的任务。当前的孤立学习模型可能不适合构建真正的智能系统,而只能解决非常狭窄领域内的问题。我们人类似乎学到了很多不同的东西。我们从不孤立地学习。相反,我们总是保留和积累过去学到的知识,并在以后的学习中无缝地使用它。随着时间的推移,我们学得更多,知识更丰富,学习也更有效。Lifelongmachinelearning(LML)(简称终身学习)旨在模仿人类的学习过程和能力。这种学习是自然的,因为我们周围的一切都是密切相关和相互联系的。过去的概念及其关系可以帮助我们更好地理解一个新主题,因为许多东西是跨领域和跨任务共享的。例如,我们人类不需要1000条正面评论和1000条负面评论,因为ML算法需要建立准确的分类以从关于电影的负面评论中识别负面评论。事实上,对于这个任务,我们可以在没有单独训练回顾的情况下执行分类任务。怎么会这样?原因很简单。这是因为我们过去积累了很多关于人们如何赞美和批评事物的知识,尽管这些赞美和批评可能都是以网络评论的形式出现的。事实上,如果没有过去的知识,人类可能很难根据2000次正面和负面的训练评估手动构建一个好的分类器。LifelongMachineLearning的定义:定义:LifelongMachineLearning(LML)是学习者完成N个学习任务,T1,T2,..TN的持续学习过程。当面对(N+1)任务TN+1及其数据DN+1时,学习者可以利用其知识库(knowledgebase)(记忆)中的先验知识来帮助学习TN+1。知识库存储和维护过去学习N个任务时学习和积累的知识。在学习TN+1之后,知识库会更新为从TN+1学习到的(中间和最佳)结果。Chen等人的这个定义。[1]表明LML的关键特征是1)持续学习,2)知识库(KB)中的知识积累,以及3)利用KB中的知识来帮助未来的学习。这些特征将其与其他相关学习任务区分开来,例如迁移学习[2]和多任务学习[3]。迁移学习(TL):使用源域帮助目标获取域学习。它假设源域S有大量带标签的训练数据,目标域T有很少或没有带标签的训练数据,但有大量未标记数据。TL利用标记数据来帮助在目标域中学习。TL不同于LML有几个原因。首先,TL不是连续的。它只使用源域来帮助目标域学习。其次,TL不会积累所学知识。第三,TL是单向的,用source来帮助target。LML可以在任何方向执行。第四,TL假设源与目标非常相似。这种相似性是由人类用户决定的。LML没有做出如此强的假设。人类用户通常不参与确定任务相似性。多任务学习(MTL):目标是对多个相似的学习任务进行联合优化,使它们可以共享彼此的知识,从而获得更好的整体效果。然而,MTL仍然在传统范式下工作。在优化单个任务的过程中,它会优化多个任务。如果我们将几个任务视为一个更大的任务,它会简化为传统优化,这在MTL的大多数优化公式中都是如此。它不会随着时间的推移积累任何知识,也没有持续学习的概念,这是LML的一个关键特征。尽管有人可能会争辩说MTL可以在添加新任务时联合优化所有任务,但很难在单个进程中同时优化所有任务,因为任务非常不同且数量众多。终身机器学习的历史:LML的概念由Thrun和Mitchell[4]于1995年提出。从那以后,它在四个主要方向上得到了研究:终身监督学习,Thrun[5]从终身概念学习开始,其中每个过去或新任务都是一个类或概念。在基于记忆的学习和中性网络设置中,已经提出了几种LML技术。在参考文献中。[6],改进了神经网络方法。飞等。[7]将这种形式的LML扩展到累积学习,构建了一个新的多类分类器,可以在遇到新类时对所有过去类和新类进行分类。它还检测在测试中没有看到的类。这为自学铺平了道路,因为它能够检测看不见的类,从而学习新事物。Ruvolo和Eaton[8]提出了一种有效的LML算法(ELLA)来改进多任务学习方法。陈等。[1]在朴素贝叶斯分类的背景下提出了一种LML技术。Pentina和Pentina[9]对LML进行了理论研究。Chen和Liu[10]首先提出了终身无监督学习的终身学习模型。随后,他们还报道了其他几款车型。所提出的技术可以从许多过去的任务中学习知识,并使用这些知识来帮助在新任务中生成更一致的主题。Liu[11]等人提出了一种使用LML方法提取信息的方法,Liu[12]提出了一种终身图标记方法来分离两类表达式。该领域的终身半监督学习工作以永无止境的语言学习者(NELL)系统[13]为代表。自2010年1月以来,NELL一直在持续阅读网络以提取信息,并且已经拥有数百万个实体和关系。终身强化学习Thrun和Mitchell[4]首先研究了用于机器人学习的终身强化学习(LRL)。Tanaka和Yamamura[14]提出了一种“LRL”方法,将每个环境视为一项任务。BouAmmar等人。[15]提出了一种策略梯度有效的LRL算法。总结:尽管LML已经存在了20多年,但直到现在还没有得到广泛的研究。一个原因可能是过去20年的ML研究主要集中在统计和算法方法上。LML通常需要系统方法。然而,随着统计机器学习的成熟和研究人员意识到其局限性,LML将变得越来越重要。可以肯定的是,如果没有LMLs积累学习知识并借助过去的知识学习新任务的能力,我们将无法构建一个真正的智能系统。我们只能解决一个非常狭窄领域的问题。参考文献:ChenZY,MaNZ,LiuB.Lifelonglearningforsentimentclassification。在:ACL会议记录。2015PanSJ,YangQ.迁移学习调查。IEEETransactiononKnowledgeandDataEngineering,2010,22(10):1345–1359CaruanaR.多任务学习。机器学习,1997年,28(1)ThrunS,MitchellTM.Lifelongrobotlearning。在:SteelsL,编辑。智能自主代理的生物学和技术。Berlin:Springer,1995,165–196ThrunS.学习第n个东西比学习第一个东西容易吗?神经信息处理系统的进展,1996:640-646SilverDL,MercerRE。终身学习的任务排练方法:克服贫乏的数据。在:加拿大人工智能计算研究学会第15届会议论文集。2002,90–101FeiGL,WangS,LiuB.累积学习变得更有见识。在:第22届ACMSIGKDD知识发现和数据挖掘国际会议论文集。2016,1565–1574RuvoloP,EatonE.ELLA:一种高效的终身学习算法。在:国际机器学习会议论文集。2013,507–515PentinaA,LampertCH.终生学习的PAC-贝叶斯约束。在:国际机器学习会议论文集。2014,991–999ChenZY,LiuB.使用来自多个领域、终身学习和大数据的主题进行主题建模。在:国际机器学习会议论文集。2014LiuQ,LiuB,ZhangYL,KimDS,GaoZQ.使用语义相似性和方面关联改进意见方面提取。在:第30届AAAI人工智能会议论文集。2016ShuL、LiuB、XuH、KimA.使用终身图实验室分离意见目标中的实体和方面鹅岭。在:自然语言处理经验方法会议记录,2016MitchellT、CohenW、HruschkaE、TalukdarP、BetteridgeJ、CarlsonA、DalviB、GardnerM、KisielB、KrishnamurthyJ、LaoN、MazaitisK,MohamedT,NakasholeN,PlataniosE,RitterA,SamadiM,SettlesB,WangR,WijayaD,GuptaA,ChenX,SaparovA,GreavesM,WellingJ.永无止境的学习。在:第29届AAAI人工智能会议论文集。2015,2302–2310TanakaF,YamamuraM.一种通过多种环境进行终身强化学习的方法。在:第六届欧洲学习机器人研讨会论文集。1997,93–99BouAmmarH,EatonE,RuvoloP,TaylorM.策略梯度方法的在线多任务学习。在:第31届国际机器学习会议论文集。2014,1206–1214