人工智能并不是一个新名词,它的发展历史已经有几十年了。它始于80年代初,当时计算机科学家设计了可以学习和模仿人类行为的算法。在学习方面,最主要的算法是神经网络,但是因为模型太强大,没有足够的数据支持,所以不是很成功。然而,在一些更具体的任务中,使用数据来拟合函数的思想取得了巨大的成功,并形成了机器学习的基础。在模仿方面,人工智能在图像识别、语音识别和自然语言处理等方面有着广泛的应用。专家们花了很多时间创建边缘计算、彩色配置文件、N-gram语言模型、语法树等,结果却平平无奇。传统机器学习机器学习(ML)技术在预测中发挥了重要作用。机器学习经历了多代,拥有一套完整的模型结构,例如:线性回归逻辑回归决策树支持向量机贝叶斯模型正则化模型集成模型神经网络每个预测模型都是基于一定的算法结构,参数可以调整。训练预测模型涉及以下步骤:1.选择模型结构(例如,逻辑回归、随机森林等)。2.为模型提供训练数据(输入和输出)。3.学习算法将输出最好的模型(即具有最小化训练误差的特定参数的模型)。每个模型都有自己的特点,在某些任务上表现良好,而在其他任务上表现不佳。但总的来说,我们可以将它们分为低功耗(简单)模型和高功耗(复杂)模型。在不同的模型之间进行选择是一件非常棘手的事情。传统上,使用低功率/简单模型优于高功率/复杂模型,原因如下:在我们拥有大量处理能力之前,训练高功率模型需要很长时间。·在我们拥有大量数据之前,训练高功率模型将导致过拟合问题(由于高功率模型具有丰富的参数并且可以适应各种形状的数据,我们最终可能会训练出与当前的训练数据、相关模型,而不是对未来的数据进行预测)。然而,选择低功耗模型会遇到所谓的“欠拟合”问题,即模型结构过于简单而无法在更复杂的情况下拟合训练数据。(假设以下数据具有二次关系:y=5*X平方;没有办法拟合线性回归:y=A,B,B,B,无论我们选择什么A和B。)为了缓解“失配问题”,数据科学家通常应用他们的“领域知识”来产生“输入特征”,这些特征与输出有更直接的关系。(例如,回到二次关系y=5*X的平方),然后通过选择a=5和b=0来拟合线性回归。机器学习的一个主要障碍是这个特征工程步骤,它需要领域专家在进入训练过程之前识别重要信号。特征工程步骤非常手动,需要大量领域专业知识,因此成为当今大多数机器学习任务的主要瓶颈。换句话说,如果我们没有足够的处理能力和足够的数据,那么我们就不得不使用低功耗/简单的模型,这需要我们花费大量的时间和精力来创建合适的输入特征。这是大多数数据科学家花时间做的事情。神经网络的回归2000年代初期,随着大容量数据时代大量细粒度事件数据的收集,以及云计算和大规模并行处理基础设施的进步,机器处理能力得到了提升。大大改善。我们不再局限于低功耗/简单模型。例如,当今最流行的两种机器学习模型是随机森林和梯度提升树。然而,尽管它们都非常强大并提供非线性模型拟合训练数据,但数据科学家仍然需要仔细创建特征才能获得良好的性能。与此同时,计算机科学家重新利用多层神经网络来执行这些人类模拟任务。这为新生的DNN(深度神经网络)在图像分类和语音识别等任务上提供了重大突破。与DNN的主要区别在于您可以将原始信号(例如RGB像素值)直接发送到DNN,而无需创建任何特定领域的输入特征。通过多层神经元(这就是为什么它被称为“深度”神经网络),可以通过每一层自动生成相应的特征以提供良好的预测。这大大节省了“特征工程”的工作量,而“特征工程”是数据科学家的一大瓶颈。DNN也演变成许多不同的网络结构,所以我们CNN(卷积神经网络)、RNN(神经网络)、LSTM(长短期记忆)、GAN(生成对抗网络)、迁移学习、注意力模型……整个范围都是称为“深度学习”,是当今整个机器学习社区关注的焦点。强化学习的另一个关键部分是如何模仿人类(或动物)的学习。想象一下感知/行为/奖励循环的非常自然的动物行为。人或动物首先通过感知他或她所处的状态来了解环境。基于此,他或她会选择一个“行动”,将他或她带到另一个“状态”,然后他或她将获得“奖励”,等等。这种学习方法称为强化学习,与传统的监督机器学习曲线拟合方法有很大不同。特别是,强化学习发生得非常迅速,因为每个新的反馈(例如执行动作和获得奖励)都会立即发送以影响后续决策。强化学习在自动驾驶汽车和AlphaGO(下棋机器人)中取得了巨大成功。强化学习还提供了预测和优化的平滑集成,因为它保持了当前的信念状态和采取不同行动时可能发生的转变的概率,然后决定哪些行动将导致最佳结果。深度学习+强化学习=人工智能与经典的机器学习技术相比,深度学习提供了更强大的预测模型,通常会产生良好的预测。与经典优化模型相比,强化学习提供了更快的学习机制,更能适应环境的变化。
