毫无疑问,AI的终极未来是达到并超越人类智能。然而,这是一个非常遥远的目标。即使是我们当中最乐观的人也只能打赌人类水平的人工智能(通用智能(AGI)或超级智能(ASI))将在10-15年之后出现。怀疑论者甚至打赌,即使人类水平的人工智能出现,这个过程也需要几个世纪的时间。不过,这不是我们本文关注的重点(如果你对学习超级人工智能非常感兴趣,可以看看这篇文章)。在这里,我们将一瞥最近的未来,讨论一些新兴的强大人工智能算法。在我看来,这些算法正在塑造AI的不久的将来。人工智能已经开始在选定的特定任务中超越人类。例如,在诊断皮肤癌方面击败医生,在世界级比赛中击败围棋选手。然而,相同的系统和模型在其他任务上表现不佳,因为这些任务与他们专门训练来解决的任务不同。这就是为什么长期以来,无需重新评估即可高效解决各种问题的通用智能系统被视为人工智能的未来。但在AI不远的将来,当通用人工智能还很遥远的时候,科学家们将如何让AI驱动的算法攻克我们现在面临的问题,让它们走出实验室,成为我们日常用品呢?环顾四周,人工智能正在一个一个地解决难题(阅读我们关于人工智能如何超越人类的文章,第1部分和第2部分)。这样的双赢局面可能会出现什么样的问题?人类正在产生越来越多的数据(这是人工智能的基础)。同时,我们的硬件性能也越来越好。毕竟,数据和更强大的计算能力是深度学习在2012年开始复兴的原因,不是吗?然而,事实是,人们的期望增长速度远远超过数据和计算能力的增长速度。数据科学家将不得不想出比目前可用的更好的解决方案来解决现实世界的问题。例如,大多数人认为图像分类是一个科学解决的问题(如果我们抵制说100%准确率的冲动)。我们可以利用AI实现媲美人类的图像分类能力(比如猫的图片、狗的图片)。但这可以在现实世界中使用吗?在某些情况下,是的,但在许多情况下,我们还不能。我们将带您了解使用AI构建现实世界解决方案时遇到的主要障碍。假设我们要对猫和狗的图像进行分类。我们将在整篇文章中使用这个示例。我们的示例算法:对猫和狗的图片进行分类下图总结了各种挑战:构建真实世界的AI所涉及的挑战对吗?一旦它进入我们的脑海,我们每次都能认出绝地武士。然而,一个算法需要大量的标记图像来学习、测试和训练。假设一个算法被喂养了一种非常稀有的狗。该算法很难将其正确分类为狗。现实世界的问题更加多样化,需要对这些更加多样化的问题进行一些调整和重新评估。这些是“Kotpies”,世界上第一个成功出生的猫狗杂交种。一旦添加了新物种,模型需要输入这些图像来识别新物种,最终模型必须重新训练以适应新物种。让我们详细讨论这些挑战:用更少的数据学习:成功的深度学习算法使用的训练数据需要包含其内容或特征的标签。这个过程称为标记。这些算法不能直接使用我们周围的数据。几百个(或几千个)标签很容易,但人类级别的图像分类算法需要数百万个标记图像来学习。那么,问题是:标记一百万张图像是否可行?如果不是,人工智能如何在更少量的标记数据上进行扩展。解决现实世界的各种问题:虽然数据集是固定的,但现实世界的用例是多种多样的(例如,与人类不同,在彩色图像上训练的算法可能在灰度图像上表现更好)。很差)。虽然我们能够提高计算机视觉算法检测物体的能力并达到人类水平。然而,正如刚才所说,这些算法只能解决非常具体的问题。与人类智能相比,这些算法无法广泛应用于各种场景。我们的示例猫狗图像分类算法无法识别稀有品种的狗,如果它以前没有喂过狗品种的话。调整增量数据:另一大挑战是增量数据。在我们的示例中,如果我们想要识别猫和狗,我们可能需要在第一次部署期间针对各种品种的猫和狗训练我们的AI算法。然而,当我们发现新品种时,我们需要训练算法以识别先前品质中的品种“Kotpies”。虽然新品种可能比我们想象的与其他品种更相似,并且可以通过简单的训练来调整算法,但这是最困难的地方,需要对方法进行完整的再训练和重新评估。问题是我们是否能让AI至少适应这个小变化。什么是迁移学习?顾名思义,在迁移学习中,学习到的知识通过相同的算法从一项任务迁移到另一项任务。算法首先在具有较大数据集的任务(源任务)上进行训练,然后转移到另一个具有较小数据集的任务(目标任务)上学习算法。传统学习与迁移学习。图片来源:IEEEComputerSociety几个例子在图像分类算法中使用参数来提取不同任务中的特征(例如:对象识别)是迁移学习中的一个简单例子。相反,这种方法也可以用来完成复杂的任务。最近,谷歌开发的一种对糖尿病视网膜病变进行分类的算法优于人类。这个算法就是迁移学习。令人惊讶的是,糖尿病视网膜病变识别器实际上是一个真实世界的图像分类器(猫狗图像分类器),使用迁移学习对眼睛扫描图像进行分类。告诉我更多!你会发现,数据科学家从源任务转移到目标任务的神经网络部分在深度学习术语中称为预训练网络。FineTuning是将目标任务中的错误稍微反向传播到预训练网络中,而不是完全不加修改地使用预训练网络。可以在此处找到计算机视觉中迁移学习的技术介绍。这种迁移学习的思想在这些“有效学习”方法论中尤为重要。什么是多任务学习?在多任务学习中,可以通过利用任务之间的异同来同时解决多个学习任务。令人惊讶的是,同时学习两个或多个任务(有时称为主要任务和辅助任务)有时会带来更好的结果。请注意:并非每一对(或三重奏或四重奏)任务都是相互补充的。但是当它们处于互补关系时,我们可以“免费”获得准确性的提高。举几个例子通过多任务学习同时解决三个任务。图片来源:SebastianRuder告诉我更多!在多任务学习中,对于实际应用来说最重要的是如何无懈可击地训练任何任务。为此,我们需要考虑大量领域数据(也称为领域适应)。在猫狗图像分类的场景中,我们可以举这样一个例子:一个算法可以识别来自许多不同来源的图像(例如,VGA摄像头、高清摄像头或红外摄像头)。在这些场景中,可以在任何任务中添加域分类问题(这张图片来自哪里)的辅助损失,然后机器将学习为主要任务制定算法(分类图片是猫还是猫)一只狗)变得更好,但导致辅助任务的性能变差(由于反向传播域分类任务的相反误差梯度)。这个想法是算法在主要任务上学习判别特征,但不记住与这些领域差异相关的特征。这种方法可以使算法性能更好。多任务学习及其领域适应是我们所知的最成功的“有效学习”技术之一,在塑造人工智能的未来中发挥着举足轻重的作用。对抗性学习是什么?对抗性学习是从IanGoodfellow的研究工作中发展而来的一个领域。尽管对抗学习最流行的应用是生成对抗网络(GAN),它可以生成令人惊叹的图像,但我们还有许多其他方法可以应用该技术。该技术受到博弈论的启发,由两种算法组成,生成器算法和鉴别器算法,其目标是在训练过程中相互欺骗。生成器可以生成我们提到的非常新颖的图像,但它也可以生成用于向鉴别器隐藏细节的任何其他数据。后者使这个概念变得有趣。生成对抗网络。图片来源:O'Reilly和很少。但是,我们相信它会演变成更新颖的使用场景。告诉我更多!使用GAN的损失函数可以更好地完成领域适应问题。这里说的辅助损失是GAN系统而不是纯领域分类。这个GAN系统中的鉴别器试图对某个数据来自哪个域进行分类,而生成器试图通过生成带有一些随机噪声的数据来愚弄它。根据我们的经验,这种方法比普通的域适配(也更容易出现编写错误)效果更好。FewShotLearning这是什么?Few-shotlearning是一种使深度学习(或任何机器学习算法)能够从更少样本中学习的技术,而不是像传统上使用的那样使用大量样本。OneShotLearning是通过从每个类别中抽取样本来学习。推而广之,K-shotLearning是通过在每个类别中获取K个样本来学习。使用每个类别中的少量样本进行一次性学习。图片来源:GoogleDeepMind几个例子Few-shotlearning是一个在所有深度学习会议上都有大量论文的领域。现在有特定的数据集可以用来衡量它们的性能,比如MNIST和CIFAR,它们通常用于机器学习数据集。一次性学习在特定图像分类问题上有很多应用,例如特征识别和表示。告诉我更多!我们有很多方法来进行小样本学习,包括迁移学习、多任务学习和元学习。有时作为整个算法,有时作为算法的一部分。还有一些其他方法,例如使用更智能的损失函数、使用动态架构或使用一些优化技巧。零样本学习是一种算法,声称它可以预测以前从未见过的类别中的数据,本质上是一种可以根据新型数据进行扩展的算法。什么是元学习?元学习顾名思义,是一种机器学习算法,它获取数据集并生成专门针对该数据集的新机器学习算法。这个定义乍一看似乎很前卫。你会觉得,“哇,这不是数据科学家所做的吗!”,它会自动化“21世纪最性感的工作”!在某种程度上,元学习算法已经在做这件事(引用自谷歌的博客文章和这篇论文)。在一些小样本图像分类问题上构建元学习的示例。图片来源:Ravi等人。举几个例子,Meta-learning最近成为深度学习领域的热门话题。发表的研究论文很多,其中大部分使用超参数和神经网络调优方法,寻找良好的网络架构,少镜头图像识别和高速强化学习。您可以在这里找到更多关于应用场景的通俗易懂的文章。告诉我更多!有些人将这种完全自动化的确定参数、超参数和网络架构的方法称为AutoML,您可能还会发现人们将元学习和AutoML视为两个不同的领域。尽管围绕元学习和AutoML大肆宣传,但事实是,随着数据复杂性和多样性的增长,元学习算法仍然是扩展机器学习算法的好方法。大多数元学习论文都采用了非常聪明的技巧。根据维基百科,它们通常具有一些属性:系统必须包含一个根据经验进行调整的学习系统。经验是通过利用元知识获得的,元知识可以来自先前对单个数据集的学习,也可以来自不同领域的知识。必须动态选择学习偏差。构建子系统是为了适应将域元数据添加到系统中的情况。该元数据可以告诉我们类别数量、复杂性、颜色、材料和对象变化(在图像问题中)、风格、语言模式(在自然语言问题中)和其他类似特征的增长情况。您可以查看一些非常酷的论文:元学习共享层次结构和使用时间卷积的元学习。您还可以使用元学习框架为少样本学习或零样本学习构建算法。元学习是塑造人工智能未来最有前途的算法之一。神经推理这是什么?神经推理是图像分类中的下一件大事。神经推理使模式识别更进一步,其算法超越了简单地识别和分类文本和图像。神经推理正在解决文本分析和视觉分析中更普遍的问题。例如,下图展示了神经推理可以通过图像回答的一系列问题。告诉我更多!这一系列新技术是在Facebook发布其最新的CLEVR数据集之后出现的。这些用于发现图像中对象之间关系的技术,而不仅仅是其中的模式,显示出巨大的潜力。它可能不仅解决神经推理的问题,还可能解决许多其他难题,包括少样本学习问题。总结现在我们了解了这些技术是什么,让我们回到开头,看看它们如何解决我们最初的问题。下表展示了这些“有效学习”技术在应对这些挑战方面的能力:数据量。元学习将给出与训练数据相匹配的结构;迁移学习会利用其他领域的一些知识来弥补少量的训练数据;few-shotlearning致力于解决科学学科中的问题;对抗性学习可以帮助增强数据集。域适应(一种多任务学习)、对抗性学习和元学习架构有助于解决由数据多样性增长引起的问题。元学习和小样本学习有助于解决大数据量的问题。通过结合元学习算法和少样本学习算法,神经推理算法已显示出解决现实世界问题的潜力。请注意:这些“有效学习”技术并不是新的深度学习或机器学习技术,而是增强现有技术的技术,以便它们在现有情况下表现更好。因此,你在实践中仍然会使用卷积神经网络和LSTM网络等工具,但会使用一些“特技”。这些“有效学习”技术需要更少的数据,可以同时解决多个问题,可以帮助我们更轻松地部署算法并将人工智能驱动的产品和服务商业化。
