当前位置: 首页 > 科技观察

2019年AI人工智能领域发生了什么?

时间:2023-03-13 17:11:37 科技观察

2019年无疑是忙碌的一年。人工智能的进步和新闻频频登上头条,让我们的生活充满敬畏和自豪的时刻,但也有一些人充满了唠叨的想法,认为这项技术正在让人们发现我们的社会还没有为人工智能的普及做好准备。2019年是人工智能进步的一年,还是幻灭的一年?随着科研人员攻城略地,迅速攻克以往难以企及的标杆,今天,我们是否可以认为该领域已经进入稳步发展阶段?轨道?在ADSP(AppliedDataSciencePartners,意为“应用数据科学合作伙伴”)网站上,我们想退一步,梳理一下2019年人工智能界发生的大事,让大众有一个全新的认识看法。在聚光灯下,重要的是要将对作品的最初兴趣与其实际重要性以及它对该领域的影响区分开来。为此,本文将展开AI故事的平行线索,并试图将它们的意义隔离开来。感谢我们出色的内容作者ElenaNisioti,她将这些故事变为现实!让我们坐下来回顾2019年的所有AI。复兴中的一个领域如果我们必须用一句话来描述2019年人工智能的状态,那可能是:“强化学习回来了,看起来将永远持续下去”。到目前为止,我们大多数人可能都熟悉监督学习:有人收集大量训练数据,将其输入机器学习算法,并得到一个可以为我们提供预测和分类的模型。我们中的一些人甚至可能会有这样的印象,即人工智能是监督学习的代名词。然而,监督学习只是我们今天拥有的众多机器学习类型中的一种。在强化学习(RL)中,代理通过与为其行为提供奖励的环境交互来通过反复试验进行学习。当涉及多个智能体时,它们被称为多智能体强化学习系统。这个领域已经存在了几十年,从概念上讲,它听起来更像是一种合理的创造智能的学习机制,而不是监督学习。然而,DeepMind直到2015年才获得关注,当时DeepMind使用深度Q学习为Atari游戏创建了一个代理,深度Q学习是经典强化学习算法和深度神经网络算法的组合。2018年,OpenAI还通过解决蒙特祖玛的复仇(一款被认为特别困难的Atari游戏)在该领域确立了自己的地位。在过去的几个月里,事情有所升级:这些作品重振了学术界对强化学习的信心,强化学习在过去被认为效率低下且过于简单,无法解决复杂的问题,甚至是游戏。也解决不了。今年另一个流行的应用是自然语言处理(NLP)。尽管研究人员已经在该领域工作了几十年,但最近的自然语言处理系统生成的文本听起来仍然不自然。自2018年底以来,注意力已从过去的词嵌入转移到预训练语言模型,这是一种NLP从计算机视觉中借鉴的技术。这些模型的训练以无监督的方式进行,这使得现代系统能够从互联网上的大量文本中学习。因此,模型变得“消息灵通”并发展了理解上下文的能力。然后,可以通过监督学习进一步提高他们在特定任务上的表现。这种通过在不同任务上训练机器学习模型来改进机器学习模型的做法属于迁移学习的范畴,被认为具有巨大的潜力。自从去年2018年底谷歌BERT、ELMo、ulmfit等系统推出以来,自然语言处理一直备受瞩目,但今年风头被OpenAI的GPT-2“抢走了”,其性能引发了人们对自然语言处理的兴趣。关于处理系统的道德使用的精彩讨论。成熟的实践今年也见证了一些最近的深度学习技术的成熟。应用监督学习,尤其是计算机视觉技术,已经在现实生活中产生了成功的产品和系统。生成对抗网络(GAN)是一对神经网络,其中生成器网络试图通过学习生成模仿训练数据的图像来愚弄鉴别器网络,现在已经接近完美。创建虚假但逼真的人物和物体图像不再是人工智能的前沿。从2014年GenerativeAdversarialNetworks的介绍,到2019年NVDIA开源StyleGAN,一张图胜过千言万语,我们用下图来说明,这或许是了解该领域进展的绝佳途径:Artwork由AI在2019年创造甚至脱离了过去几年的假设性讨论,成为今天博物馆装置和拍卖的一部分。计算机视觉也被用于几个具有重要商业和社会重要性的领域,包括自动驾驶汽车和医学。然而,人工智能算法在这些领域的应用自然缓慢,因为它们直接与人类生活直接交互。这些系统,至少到目前为止,还不是完全自主的;它们旨在支持和增强人类操作员的能力。研究团队正在与医院密切合作,开发用于早期疾病预测的人工智能系统,并整理大量健康数据档案,一个显着的例子是DeepMindHealth和UCLH之间正在进行的合作。然而,这项工作的大部分仍处于实验阶段,到目前为止,唯一获得FDA批准的人工智能系统是SubtlePet,这是一种使用深度学习来增强医学图像的软件。沉睡的巨人AutoML是机器学习的子领域之一,自1990年代以来一直存在,在2016年引起了很多兴趣,但不知何故从未成为头条新闻,至少不像其他人工智能那样成为趋势。也许这是因为它不那么花哨的性质:AutoML旨在通过自动化决策来使机器学习的实践更加有效,而这些决策是当今数据科学家通过手动、蛮力调整做出的。我们对该领域的理解在过去三年中发生了变化,如今大多数主要公司都提供AutoML工具,包括GoogleCloudAutoML、MicrosoftAzure、AmazonWebService和DataRobot等。今年,随着学习进化人工智能框架(LEAF)成为更先进的人工智能技术,人们的兴趣已经转移到“进化”方法上。然而,AutoML尚未达到允许完全自动化的AI系统比AI专家团队表现更好的成熟度。对人工智能的担忧尽管取得了压倒性的成功,但今年人工智能领域也给我们带来了一些令人沮丧的故事。其中一个主要问题是机器学习模型的偏见,直到2018年亚马逊才发现其自动化招聘系统存在性别偏见,美国法院广泛使用的裁决工具COMPAS也被发现存在性别偏见。和种族偏见。今年的案件数量有所增加,这可能表明公众和机构越来越怀疑用于自动化决策的现有人工智能系统。这是图片的一小部分:10月,一家医院的算法被发现对黑人患者有偏见。去年10月,一个人权组织指责用于签发英国种族偏见签证的人工智能系统。去年11月,苹果的信用评分系统被客户指责存在性别偏见。偏差是一个特别值得关注的问题,因为它位于监督深度学习的核心:当有偏差的数据用于训练而预测模型无法解释时,我们无法真正判断是否存在偏差。迄今为止,学术界的反应是开发技术来理解深度模型做出决策背后的原因,但专家警告说,如果我们采用正确的实用方法,许多问题都可以得到解决。GoogleCloudModelCards是最近尝试将组织社区转向开源模型,同时清楚地描述其性质和局限性。今年另一个令人担忧的发现是,一项技术变得越复杂,它被滥用的可能性就越大。Deepfakes是生成对抗网络的阴暗面,其中深度学习算法用于创建涉及纯虚构场景中真人的图像或视频。不难看出这项技术如何被用来传播假新闻,从政治宣传到欺凌。这个问题不能单靠科学家来解决。历史表明,科学家们并不擅长预测他们的发现对现实生活的影响,更不用说控制它们了。这需要社会各界进行广泛的对话。今天的人工智能有多强大?现在很难量化人工智能的价值。但有一件事是肯定的:人工智能已经走出科幻小说和前卫计算机科学的领域,现在已经成为社会不可或缺的一部分,对人工智能进行了大量投资。今年早些时候,三位领先的深度学习研究人员获得了图灵奖,这是对人工智能作为计算机科学领域期待已久的认可。