当前位置: 首页 > 科技观察

再来说说图像识别:递归神经网络

时间:2023-03-15 10:28:07 科技观察

递归神经网络(RNN)主要用来解决序列数据问题。之所以称为循环神经网络,是因为一个序列的当前输出也与之前的输出有关。RNN网络记忆前一时刻的信息,并将其应用于当前的输出计算。与卷积神经网络不同的是,循环神经网络的隐藏层之间的神经元是相互连接的,隐藏层神经元的输入由输入决定,该层的输出由前一时刻的隐藏神经元。尽管RNN网络取得了一些显著成果,但它也存在一些缺点和局限性,如:训练困难、精度低、效率低、耗时长等。因此,逐渐发展出一些基于RNN的改进网络模型,如:长短期记忆(LSTM)、双向RNN、双向LSTM、GRU等,这些改进后的RNN模型在图像识别领域表现出了显着的效果,得到了广泛的应用。以LSTM网络为例,介绍其主要网络结构。LongShort-TermMemory(LSTM)解决了RNN中梯度消失或梯度爆炸的问题,可以学习长期依赖问题。它的结构如下。LSTM有三个门让信息有选择地通过:遗忘门、输入门和输出门。其中,遗忘门决定了哪些信息可以通过这个细胞。它通过一个sigmoid神经层来做到这一点。它的输入是,输出是一个向量,取值在(0,1)之间,表示各部分信息通过的比例。0表示“不让任何信息通过”,1表示“让所有信息通过”。输入门决定了有多少新信息被添加到细胞状态,一个tanh层生成一个向量,这是更新的替代内容。更新cellstate:outputgatedecision中的哪部分信息被输出了:GRU网络模型也解决了RNN中梯度消失或者梯度爆炸的问题,可以学习到long-termdependencies。它是LSTM的变形,结构比LSTM简单,参数少,训练时间也比LSTM短。它还广泛应用于语音识别、图像描述、自然语言处理等场景。