虽然人工智能已经诞生了半个多世纪,但人工智能领域在过去的十年里发展非常迅速。自2012年ImageNet竞赛开启现代深度学习时代至今仅8年。从那时起,人工智能领域取得了惊人的进步,人工智能已经融入到我们日常工作和生活的方方面面。专家表示,这种惊人的速度只会越来越快。五年后,人工智能领域将与今天大不相同。目前被认为是最先进的方法将被淘汰;今天刚刚出现或处于边缘的方法将成为主流。下一代人工智能会是什么样子?哪些新的AI方法将释放目前在技术和商业领域无法想象的可能性?本文重点介绍了人工智能的三个新兴领域,这些领域将在未来几年发生变化。重新定义人工智能与社会领域。1.无监督学习当今人工智能世界的主导范式是监督学习。在监督学习中,AI模型从数据集中学习人类如何根据预定义的类别对其进行管理和标记。(“监督学习”一词源于人类“监督者”提前准备数据这一事实。)虽然监督学习在过去十年中推动了人工智能的显着进步,从自动驾驶汽车到语音助手,但它仍然存在严重的问题限制。手动标记数千个数据点的过程可能既昂贵又乏味。人们必须手动标记数据才能被机器学习模型提取,这一事实已成为AI的主要瓶颈。在更深层次上,监督学习代表了一种狭隘的、受限的学习形式。监督算法不仅无法探索和吸收给定数据集中所有潜在的信息、关系和意义,而且只能针对研究人员预先确定的概念和类别。相比之下,无监督学习是一种人工智能方法,其中算法在没有人类提供标签或指导的情况下从数据中学习。许多AI领导者将无监督学习视为AI的下一个前沿领域。用人工智能传奇人物YannLeCun的话来说:“下一次人工智能革命将不会受到监督。”加州大学伯克利分校教授JitendaMalik说得更形象:“标签是机器学习研究人员的鸦片。”无监督学习如何工作?简而言之,系统根据世界的其他部分了解世界的某些部分。通过观察实体的行为、实体之间的模式以及实体之间的关系(例如,上下文中的词或视频中的人),系统指导其对其环境的整体理解。一些研究人员将此概括为“从其他一切预测一切”。无监督学习更接近于人类了解世界的方式:通过开放式探索和推理,没有监督学习的“训练轮”。它的一个基本优势是,世界上总是有比标记数据多得多的未标记数据(前者更容易获得)。用喜欢密切相关术语“自监督学习”的LeCun的话来说:“在自监督学习中,输入的一部分被用作监督信号来预测输入的其余部分。自监督学习可以实现而不是[其他AI范式]来学习关于世界结构的知识,因为数据是无限的,每个例??子提供的反馈量很大。”无监督学习已经对自然语言处理产生了变革性影响。NLP最近取得了令人难以置信的进步,这要归功于一种新的无监督学习架构,Transformer,大约三年前在谷歌开始。(有关Transformers的更多信息,请参见下面的#3。)将无监督学习应用于AI其他领域的努力仍处于早期阶段,但正在取得快速进展。例如,一家名为Helm.ai的初创公司正在寻求使用无监督学习来超越自动驾驶领域的领导者汽车行业。许多研究人员将无监督学习视为发展人类级别AI的关键。LeCun认为,掌握无监督学习是“未来几年ML和AI面临的最大挑战。”2.联邦学习的主要挑战之一数字时代是数据隐私。由于数据是现代人工智能的命脉,数据隐私问题在ofAI。保护隐私的AI(使AI模型能够在不损害其隐私的情况下从数据集中学习的方法)变得越来越重要。也许最有前途的隐私保护AI方法是联合学习。联邦学习的概念于2017年初由谷歌研究人员首次提出。在过去的一年里,人们对联邦学习的兴趣呈爆炸式增长:在2020年前六个月,联邦学习的研究论文发表了1000多篇,高于2017年的180篇。2018.今天,构建机器学习模型的标准方法是在一个地方(通常在云端)收集所有训练数据,然后在数据上训练模型。然而,这种方法对于世界上大多数数据来说是不可行的,出于隐私和安全原因,这些数据不能移动到中央数据存储库。这使其成为传统人工智能技术的禁区。联邦学习通过颠覆传统的人工智能方法解决了这个问题。联邦学习不需要统一的数据集来训练模型,而是将数据保存在适当的位置并分布在边缘的众多设备和服务器上。相反,模型的许多版本与训练数据一起发送到单个设备,每个模型在数据的每个子集上进行本地训练。然后将生成的模型参数(而不是训练数据本身)发送回云端。当所有这些“微型模型”汇集在一起??时,结果就是一个整体模型,其功能就好像它是在整个数据集上同时训练过的一样。最初的联邦学习用例是在分布在数十亿移动设备上的个人数据上训练AI模型。正如这些研究人员总结的那样:“现代移动设备可以访问适合机器学习模型的大量数据。登录数据中心……我们提倡一种替代方法,将训练数据保存在移动设备上,并通过聚合本地计算的更新来学习共享模型。”最近,医疗保健已经成为联邦学习的一个特别有前途的应用领域。不难看出原因。一方面,医疗保健领域有很多有价值的人工智能用例。另一方面,医疗保健数据,尤其是患者的个人身份信息,非常敏感;HIPAA等一系列法规限制了它的使用和移动。联合学习可以使研究人员开发出能够挽救生命的医疗保健AI工具,而不会从源头转移敏感的健康记录或将其暴露在隐私泄露之下。许多初创公司如雨后春笋般涌现,以追求医疗保健领域的联合学习。最著名的是总部位于巴黎的Owkin;早期参与者包括Lynx.MD、FerrumHealth和SecureAILabs。除了医疗保健之外,联邦学习有一天可能会在涉及敏感数据的任何人工智能应用程序的开发中发挥核心作用:从金融服务到自动驾驶汽车,从政府用例到各种消费产品。与差分隐私和同态加密等其他隐私保护技术结合使用,联邦学习可以提供释放人工智能巨大潜力的关键,同时缓解数据隐私方面的棘手挑战。今天在世界范围内颁布的数据隐私立法浪潮(从GDPR和CCPA开始,还有许多类似的法律即将出台)只会加速对这些隐私保护技术的需求。期待联邦学习在未来几年成为AI技术栈的重要组成部分。3.Transformer我们已经进入了自然语言处理的黄金时代。OpenAI发布了有史以来最强大的语言模型GPT-3,今年夏天吸引了科技界的目光。它为NLP设定了新的标准:它可以写出令人印象深刻的诗歌、生成高效的代码、写出深思熟虑的商业备忘录、写关于自己的文章等等。GPT-3只是一系列类似架构的NLP模型(Google的BERT、OpenAI的GPT-2、Facebook的RoBERTa等)中的最新(也是最大)模型,这些模型正在重新定义NLP可以做什么。推动语言人工智能革命的关键技术突破是Transformer。Transformer在2017年的一篇具有里程碑意义的研究论文中被引入。以前,最先进的NLP方法是基于递归神经网络(例如LSTM)。根据定义,RNN按顺序呈现数据,也就是说,它们按出现的顺序一次处理一个词。Transformer的一大创新是并行化语言处理:同时分析给定文本正文中的所有标记,而不是按顺序分析。为了支持这种并行化,Transformer严重依赖称为注意力的AI机制。注意力使模型能够考虑单词之间的关系,无论它们相距多远,并确定段落中的哪些单词和短语最需要“注意”。为什么并行化如此有价值?因为它使Transformer的计算效率比RNN高得多,这意味着它们可以在更大的数据集上进行训练。GPT-3接受了大约5000亿个单词的训练,这些单词由1750亿个参数组成,这让现有的RNN相形见绌。迄今为止,由于GPT-3等成功应用,变形金刚几乎完全与NLP相关联。但就在本月,一篇开创性的新论文发表,成功地将Transformers应用于计算机视觉。许多人工智能研究人员认为,这项工作可能预示着计算机视觉的新时代。(正如著名的ML研究员OriolVinyals所说,“我的观点是:与卷积说再见。”)尽管谷歌和Facebook等领先的AI公司已经开始将基于Transformer的模型投入生产,但大多数组织仍处于早期阶段技术的产品化和商业化。OpenAI已宣布计划通过API使GPT-3在商业上可用,这可能会为在其之上构建应用程序的初创公司的整个生态系统播下种子。从自然语言开始,预计变形金刚将成为未来几年全新一代AI功能的基础。过去十年在人工智能领域精彩纷呈,但事实证明,这只是下一个十年的序幕。
