还在混淆人工智能和机器学习吗?了解下6家AI热门领域公司。1.强化学习(Reinforcementlearning)强化学习是一种通过启发式学习的范式,其灵感来自于人类学习新任务。在典型的RL设置中,AI的任务是在数字环境中观察其当前状态,从环境中接收每个动作的结果并提供激励反馈,以便它知道该动作是促进还是阻碍其进步。因此,AI必须找到获得奖励的最佳策略。谷歌旗下的DeepMind使用这种方法。现实世界中RL的一个例子是优化谷歌数据中心冷却能效的任务,其中RL系统实现了40%的冷却成本降低。在可以模拟的环境(例如视频游戏)中使用RL的优势在于可以以非常低的成本生成训练数据。这与有监督的深度学习任务形成鲜明对比,后者通常需要昂贵且难以从现实世界获得的训练数据。应用:多个AI在各自的环境中学习或交互,在同一环境中相互学习,学习在3D环境中导航,例如迷宫或城市街道上的自动驾驶,逆向强化学习以通过学习任务目标(例如学开车)。公司:GoogleDeepMind、Prowler.io、Osaro、MicroPSI、Maluuba/Microsoft、NVIDIA、Mobileye。2.生成模型与用于分类或回归任务的判别模型相比,生成模型学习训练样本的概率分布。通过从这个高维分布中采样,生成与训练数据相似的模型输出的新示例。这意味着,例如,在真实人脸图像上训练的生成模型可以输出类似于人脸的新合成图像。请参阅IanGoodfellow的精彩NIPS2016教程,了解这些模型的工作原理。他介绍了生成对抗网络(GAN)架构,该架构提供了一种通往无监督学习的途径。GAN有两个神经网络:一个生成器,它将随机噪声作为输入,其任务是合成内容(例如图像);一个鉴别器,它已经知道真实图像是什么样子的,它的任务是识别图像是真的还是假的。对抗训练可以被认为是一种游戏,机器必须反复学习如何使鉴别器不再能够区分生成的图像和真实图像。该框架正在扩展到许多数据模式和任务。应用:模拟时间序列的可能未来(例如在强化学习规划任务中);超分辨率图像;将2D图像恢复为3D结构;从小标签数据集中概括;一个输入可以产生多个正确的输出(例如预测视频的下一帧;为对话界面创建自然语言;并非所有标签都可用时的半监督学习;艺术风格迁移;合成音乐、声音。公司:Twitter、Adobe,Apple,Prisma,Jukedeck,Creative.ai,Gluru,Mapillary,Unbabel.3.具有记忆存储的网络在未来的任务中执行所有这些。然而,传统的神经网络往往无法进行这种学习,这是一种称为灾难性遗忘的缺点。它的发生是因为当网络被训练来解决任务B时,网络中用于解决任务A的权重然而,有几种强大的架构可以赋予神经网络不同程度的记忆,包括长短期记忆网络(递归神经网络的一种变体)works)能够处理和预测时间序列。DeepMind的微型神经计算机,结合神经网络和存储系统,你可以学习和浏览你自己的复杂数据结构。应用:可扩展到新环境学习;机械臂控制任务;自动驾驶;时间序列预测(如金融市场、视频、物联网);自然语言理解和下一个词预测。公司:GoogleDeepMind、NNaisense、SwiftKey/MicrosoftResearch、Facebook的AIResearch。4.用更少的数据学习并构建更小的模型需要大量的训练数据。如果没有大规模的训练数据,深度学习模型将不会收敛到它们的最佳设置,也不会在语音识别或机器翻译等复杂任务上表现出色。这种数据需求只会在使用单个神经网络解决端到端问题时增加,例如将语音的原始录音作为输入并输出语音的文本转录。如果我们希望AI解决训练数据稀缺、昂贵且耗时的问题,则可以开发一种从更少的示例中学习最佳解决方案的模型(即基于一或零的学习)。在小数据集上训练时,挑战包括过度拟合、难以处理异常值以及训练和测试之间的数据分布差异。另一种方法是迁移学习。应用:通过学习训练浅层网络来模仿深层网络的性能,最初接受大量带标签的训练数据;参数较少但性能相当的深度模型架构(例如SqueezeNet);机器翻译。公司:GeometricIntelligence/Uber、DeepScale.ai、MicrosoftResearch、Google、BloomsburyAI。5.训练硬件AI进步的主要催化剂是图形处理单元(GPU)的重用来训练大型神经网络模型。与以顺序方式计算的中央处理器(CPU)不同,GPU提供了一种可以同时处理多个任务的大规模并行架构。鉴于神经网络必须处理的大量(通常是高维)数据,在GPU上的训练比CPU快得多。这也是NVIDIA近年来火爆的原因。然而,GPU并非专门用于训练AI,它们用于渲染视频和游戏图形。GPU的高计算精度不是必需的,还有内存带宽和数据吞吐量问题。这为初创公司提供了创建专为高维机器学习应用设计的芯片的机会。通过具有更高计算密度、效率和每瓦性能的新芯片提高了更大的内存带宽。这是通过:更快更高效的模型训练→更好的用户体验→用户和产品的快速迭代→创建更大的数据集→通过优化提高模型性能。应用:快速训练模型(尤其是在图上);在进行预测时提高能源和数据效率;运行人工智能系统的物联网设备;基础设施即服务;自动驾驶、无人机和机器人。公司:Graphcore、Cerebras、IsoclineEngineering、Google(TPU)、NVIDIA(DGX-1)、NervanaSystems(Intel)、Movidius(Intel)、Scortex6。模拟环境具有挑战性。更重要的是,人工智能必须泛化到许多情况才能在现实世界中发挥作用。因此,开发模拟现实世界的物理和行为将为我们提供训练人工智能的良好环境。这些环境向AI呈现原始像素,然后AI执行操作以实现他们设定(或学习)的目标。在训练期间,这些模拟环境可以帮助我们了解AI系统如何学习以及如何改进它们,同时也为我们提供了可以转移到现实世界应用程序的模型。应用:学习驾驶;制造业;工业设计;游戏开发;智慧城市。
