2019年,一场人机对战——OpenAIFive以压倒性的表现击败了Dota2世界冠军战队OG。棋牌游戏一直被视为人类智能和人工智能顶尖水平的试金石。人工智能与人类棋手的交锋不断上演。从三连棋、双陆棋、西洋跳棋、国际象棋、军棋、国际象棋,到最高水平的围棋游戏,计算机人工智能程序都战胜了人类。人工智能的成就令人瞩目,至少在游戏领域,已经完全压倒了人类。然而,这种惊人表现的背后,是远非人类所能企及的大数据训练的结果。以OpenAIFive的训练为例,看看它在学习过程中消耗了多少资源:128,000个CPU;256块P100;几个月的训练……如果转化为更容易理解的数据,就相当于一个玩家日以继夜练习了四万五千年的游戏,才能达到同样的结果。按照人类目前的寿命和思维能力,显然这是一个永远无法完成的任务。这是目前人工智能行业尤其是深度学习领域面临的最大问题和挑战之一,主要包括:大量的数据依赖;长期的学习和培训;高昂的硬件和软件培训成本……那么,解决方案是什么?2020年学术界提出因果关系小样本学习的概念。如何做小样本学习?其实这个概念和几年前杨强教授(现微众银行首席人工智能官)和戴文元(现第四范式CEO)提出的迁移学习概念有异曲同工之妙。小样本学习和迁移学习都可以说是学习模仿人类,看人类是如何快速学习各种知识的。以玩游戏为例:星际争霸系列游戏涉及人族、神族、虫族三个种族,数十个兵种。从战略到战术,它可以演化出千种玩法。在这场比赛中,直到最后一刻,往往都很难猜出谁胜谁负。因此,它也成为了一款以人工智能“实践”为重点的即时战略对战游戏。对于喜欢玩即时战略游戏的人来说,如果能玩星际争霸系列游戏,那就玩其他即时战略游戏,比如:暴雪的魔兽争霸,DOTA2系列;微软的帝国时代系列等等,都是很容易上手的。因为可以用以前的游戏经验来玩同类型的游戏,背后的思路是相似的。这就是它的意思。同样,对于机器学习来说,在少量样本上快速泛化的核心是利用先验知识(类似于人类的经验)。小样本学习致力于通过极少的训练数据(1-5个样本/类)实现模型的泛化(机器学习算法对新鲜样本的适应性)。这里,还有一个概念,指的是机器学习“预训练”。具体来说,就是在大数据集上学习一个强大的神经网络作为特征提取器,例如:在CV(计算机视觉)中常见的ImageNet上预训练的ResNet网络;在NLP(自然语言处理)维基百科上预训练的BERT;都代表了特征表达的先验知识,即预训练。在迁移学习中,“CooperLearningCircle”理论也是基于类似的原理。预训练相当于给了一个很好的小样本学习起点,就像一个人在上课前预习大量的知识点一样。当然,如果你想得到更好的结果,你还需要了解元学习的概念。简单来说,就是通过不断的学习,找到更好的机器学习方法。因此,人工智能和机器学习,简单来说就是不断学习和模仿人类思维的过程。关注东方霖雨,了解更多人工智能知识。附件:InterventionalFew-ShotLearning,一篇NeurIPS2020收到的小样本学习论文,网址如下:https://arxiv.org/abs/2009.13000论文代码开源在Github网址:https://github.com/yue-zhongqi/ifsl
