卷积神经网络(CNN)是一种特殊的深度前馈网络,一般包括数据输入层、卷积层、激活层、下采样层和全连接层。卷积层是卷积神经网络中的重要单元。它由一系列过滤数据的卷积核组成。它的本质是图像局部区域加权求和与卷积核权值的线性叠加过程。以图像I作为输入,使用二维卷积核K进行卷积。卷积过程可以表示为:其中I(i,j)是图像在位置(i,j)的值,S(i,j)是卷积运算后得到的featuremap。激活卷积操作是线性的,只能进行线性映射,表达能力有限。因此,为了处理非线性映射问题,需要引入非线性激活函数。针对不同的非线性问题,引入的激活函数也不同。常用的有sigmoid、tanh、relu等。Sigmoid函数的表达式为:Tanh函数的表达式为:Relu函数的表达式为:下采样层也叫池化层,它是通常放置在几个卷积层之后以减小特征图像的尺寸。池化函数利用某一位置相邻输出的整体统计特征来代替网络在该位置的输出。通常,池化层具有三个作用:一是降低特征维度。池化操作相当于再进行一次特征提取过程,可以去除冗余信息,减少下一层的数据处理量。二是防止过拟合,池化操作获取更多抽象信息,提高泛化能力。三是保持特征不变性,池化操作保留了最重要的特征。全连接层通常放在卷积神经网络的末端,层与层之间的所有神经元都有权重连接。目的是将网络中学习到的所有特征映射到样本的标签空间,从而进行类别判断。Softmax函数通常用在神经网络的最后一层作为分类器的输出,softmax函数输出的每个值的范围在(0,1)之间。有一些经典高效的CNN模型,如:VGGNet、ResNet、AlexNet等,在图像识别领域得到了广泛的应用。
