现阶段,关于人工智能的公认定义有很多争论。有些人将人工智能视为“认知计算”或“机器智能”,而另一些人则将其与“机器学习”的概念混淆。但是,人工智能并不是指具体的技术,它实际上是一个由多个学科组成的广阔领域,包括机器人学和机器学习。人工智能的最终目标是让机器代替人类完成需要认知能力的任务。为了实现这一目标,机器必须自动学习掌握能力,而不仅仅是执行程序员编写的命令。人工智能在过去十年取得了惊人的进步,例如自动驾驶汽车、语音识别和语音合成。在此背景下,人工智能的话题越来越多地出现在同事和家人的聊天中,人工智能技术已经渗透到他们生活的每一个角落。与此同时,大众媒体几乎每天都在报道人工智能和科技巨头,介绍他们在人工智能领域的长期战略。虽然一些投资者和企业家渴望了解如何从这个新领域中提取价值,但大多数人仍在努力弄清楚AI到底会改变什么。此外,政府正在努力应对自动化对社会的影响(例如奥巴马总统的离职演说)。其中,人工智能的六大领域未来可能对数字产品和数字服务产生重要影响。作者一一列举了这六个方向,说明了它们的重要性、目前的应用场景,并列出了正在使用它们的公司和研究机构。强化学习强化学习是一种通过反复试验进行学习的方法,其灵感来自于人类学习新技能的过程。在强化学习的典型案例中,代理观察其当前状态并采取行动以最大化其长期奖励的结果。每次执行一个动作时,代理都会收到来自环境的反馈,因此它可以判断该动作的效果是积极的还是消极的。在这个过程中,agent需要平衡根据经验寻找最佳策略和探索新策略这两个方面,以达到最终的目标。谷歌的DeepMind团队在Atari游戏和围棋游戏中都使用了强化学习技术。在现实场景中,强化学习已被用于提高谷歌数据中心的能源效率。强化学习技术为该冷却系统节省了约40%的能耗。强化学习的一个非常重要的优势是它的代理可以以低成本模拟和生成大量的训练数据。与有监督的深度学习任务相比,这个优势非常明显,节省了大量的人工标注数据成本。应用:包括城市道路自动驾驶;在3D环境中导航;多个代理在同一环境中交互和学习等。生成模型不同于用于完成分类和回归任务的判别模型。生成模型从训练样本中学习概率分布。通过从高维分布中采样,模型输出与训练样本相似的新样本。这也意味着,如果生成模型的训练数据是人脸图像集,训练后的模型也可以输出与人脸相似的合成图像。详情请参考IanGoodfellow的文章。他提出的生成对抗模型(GAN)的结构在学术界非常流行,因为它为无监督学习提供了一种新的思维方式。GAN结构使用了两个神经网络:一个是生成器,负责将随机输入的噪声数据合成为新的内容(比如合成图片),另一个是判别器,负责学习真实图片并对生成的图片进行判断由发电机。内容是否虚假。对抗训练可以被认为是一种游戏,生成器必须反复学习从随机噪声数据中合成有意义的内容,直到鉴别器无法区分真假为止。该框架正在扩展到许多数据模式和任务。记忆网络为了让人工智能系统像人类一样适应各种环境,它们必须不断获得新技能并记住如何在未来的场景中应用它们。传统的神经网络难以掌握一系列学习任务。这种缺点被科学家称为灾难性遗忘。难点在于一个神经网络完成任务A的训练后,如果重新训练去解决任务B,网络模型的权值就不再适合任务A了。目前有一些网络结构允许模型具有不同程度的内存。其中包括长短期记忆网络,一种可以处理和预测时间序列的递归神经网络;DeepMind团队的微型神经计算机,它结合了神经网络和记忆系统,有助于从复杂的数据结构中学习;和渐进式神经网络,它学习每个独立模型之间的横向相关性,并从这些现有的网络模型中提取有用的特征来完成新的任务。Micro-datalearningmicro-model深度学习模型一直需要积累大量的训练数据才能达到最好的效果。例如,参加ImageNet挑战赛的团队使用分布在1000个类别中的120万张人工标注图像来训练模型。如果没有大规模的训练数据,深度学习模型将无法收敛到最大值,也无法在语音识别、机器翻译等复杂任务中取得好成绩。数据量需求的增加往往发生在使用单个神经网络模型处理端到端的情况时,例如输入原始语音片段,需要输出转换后的文本内容。这个过程不同于多个网络一起工作以一步处理中间结果(例如,原始语音输入→音素→单词→文本输出)。如果我们要用人工智能系统来解决训练数据稀缺的任务,我们希望用于模型训练的样本越少越好。当训练数据集较小时,会出现过拟合、异常值干扰、训练集和测试集分布不一致等问题。另一种方法是将在其他任务上训练的模型迁移到新任务上,称为迁移学习。一个相关的问题是构建具有更少模型参数的更小的深度学习架构,同时保持最佳模型性能。这种技术的优势在于更高效的分布式训练过程,因为在训练期间需要传输的参数更少,并且能够在内存大小有限的嵌入式硬件上轻松部署模型。学习/推理硬件推动人工智能发展的催化剂之一是图形处理单元(GPU)的升级。与CPU的顺序执行模式不同,GPU支持大规模并行架构,可以同时处理多个任务。鉴于神经网络必须使用大规模(和高维)数据集进行训练,因此GPU比CPU更高效。这也是为什么自从2012年第一个GPU训练的神经网络模型AlexNet发布后,GPU就成了名副其实的淘金铲。NVIDIA在2017年继续引领行业,领先于英特尔、高通、AMD和后起之秀谷歌。然而,GPU并不是为模型训练或预测而设计的,它最初是用于视频游戏中的图像渲染。GPU具有高精度计算能力,但存在内存带宽和数据吞吐量问题。这为像谷歌这样的大公司和许多小型初创公司开辟了新的领域,可以设计和制造用于高维机器学习任务的处理芯片。芯片设计的改进包括更大的内存带宽、图形计算代替向量计算(GPU)和向量计算(CPU)、更高的计算密度和更低的能耗。这些改进之所以令人兴奋,是因为它们最终反馈给了用户:更快更高效的模型训练→更好的用户体验→用户更多地使用产品→收集更大的数据集→通过优化模型改进产品性能。因此,能够更快地训练和部署模型的系统具有显着优势。模拟环境如前所述,为人工智能系统准备训练数据具有挑战性。而且,要在现实生活中应用人工智能系统,它必须是适用的。因此,开发模拟真实物理世界和行为的数字环境将为我们提供检验人工智能系统适应性的机会。这些环境向AI系统呈现原始像素,然后AI系统根据设定的目标采取某些行动。在这些模拟环境中进行训练可以帮助我们了解AI系统如何学习、如何改进它们,同时也为我们提供了可以应用于真实环境的模型。
