当前位置: 首页 > 科技观察

深度学习和神经网络:6个值得关注的趋势

时间:2023-03-18 17:47:02 科技观察

神经网络的基本思想是模拟计算机“大脑”中多个相互连接的细胞,使其能够从其环境中学习,识别不同的模式,并做出决策类似于人类。典型的神经网络由数千个相互连接的人工神经元组成,这些人工神经元是神经网络的基本单元。这些神经元按顺序堆叠在一起,在所谓的层中形成数百万个连接。各单元划分如下:输入单元:用于接收来自外界环境的信息;隐藏单元:隐藏层将需要的计算和输出结果传递给输出层;输出单元:输出信号表示网络如何响应最近获取的信息。大多数神经网络是“完全连接的”,这意味着每个隐藏和输出单元都连接到另一侧的所有单元。每个单元之间的联系称为“权重”,它可以是正的也可以是负的,这取决于它对另一个单元的影响程度。权重越大,对相关单位的影响越大。前馈神经网络是最简单的神经网络,每个神经元都是分层排列的。每个神经元只连接到上一层的神经元。接收上一层的输出并输出到下一层,层与层之间没有反馈。它是使用最广泛、发展最快的人工神经网络之一。下面将讨论神经网络和深度学习发展的几个重要趋势:1.胶囊网络(CapsuleNetworks)胶囊网络是一种新兴的深度神经网络,其处理信息的方式类似于人脑。胶囊网络与卷积神经网络形成对比,后者虽然是迄今为止使用最广泛的神经网络之一,但未能考虑到存在于简单对象和复杂对象之间的关键空间层次结构。这会导致错误分类并带来更高的错误率。在处理简单的识别任务时,胶囊网络具有更高的准确率、更少的错误数,并且不需要大量的训练模型数据。2.深度强化学习(DRL)深度强化学习是一种神经网络形式,它通过观察、行动和奖励与周围环境互动来学习。深度强化学习已成功用于为Atari和围棋等游戏制定策略。击败人类国际象棋冠军的AlphaGo是深度强化学习最著名的应用。3.数据增强(Leanandaugmenteddatalearning)到目前为止,机器学习和深度学习遇到的最大挑战是:需要大量的标记数据来训练系统。目前有两种广泛使用的技术可以帮助解决这个问题:SynthesisingnewdataTransferlearning“Transferlearning”,即将从一个任务或领域学到的经验迁移到另一个任务或领域,“one-shotlearning”指的是迁移学习适用于极端情况,其中只有一个相关示例,甚至根本没有示例。因此,它们成为“减少数据”的学习技术。同样,当使用模拟或插值法合成新数据时,有助于获得更多的训练数据,从而增强现有数据以改进学习。通过应用上述技术,我们能够解决更多问题,尤其是在历史数据较少的情况下。4.监督模型(SupervisedModel)监督模型是一种学习形式,它基于预先标记的训练数据学习或建立一种模式,并根据这种模式推断出新的实例。监督模型使用监督学习算法,其中包括一组输入和正确标记的输出。比较带标签的输入和带标签的输出。给定两者之间的变化,计算一个误差值,然后使用算法学习输入和输出之间的映射。5.具有记忆模型的网络人和机器之间的一个典型区别是批判性工作和思考的能力。可以对计算机进行编程以高度准确地执行特定任务。但是如果我们想让它在不同的环境下工作,还有很多问题需要解决。为了使机器适应现实环境,神经网络必须能够学习顺序任务而不会出现“灾难性遗忘”,这需要借助许多方法,例如:长期记忆网络:它可以处理和预测时间序列ElasticWeightConsolidation(EWC):这种方法可以选择性地减慢对这些任务很重要的权重的学习率渐进式神经网络(ProgressiveNeuralNetworks):不会产生“灾难性遗忘”,它可以从学习到的网络中提取有用的特征6.混合学习模型(HybridLearningModels)不同类型的深度神经网络,例如生成对抗网络(GANs),以及深度强化学习(DRL),在性能提升和广泛应用方面显示出巨大潜力应用。然而,深度学习模型无法模拟贝叶斯概率等不确定数据场景。混合学习模式结合了这两种方法的优点。典型的混合学习模式包括贝叶斯GAN和贝叶斯条件GAN。混合学习模型扩展了业务问题的范围,使其能够解决具有不确定性的深度学习问题,从而提高模型的性能,增强模型的可解释性,实现更广泛的应用。