本文转载自微信公众号《智彬的python笔记》,作者安可。转载本文请联系志斌python笔记公众号。大家好,我是志斌~今天给大家分享一些人工神经网络的基础知识~深度学习(DL)在搜索技术、数据挖掘、机器学习、机器翻译、自然语言处理、多媒体学习、语音、推荐和个性化技术等相关领域取得了很多成果。人工智能相关技术取得长足进步。学习深度学习,首先要熟悉神经网络的一些基本概念。人工神经网络的基本思想是仿生学。1.神经元模型人工神经网络是受人脑结构的启发而创建的。如图所示,神经网络算法模仿了上面的网络结构。下图是人工神经网络的构造图。每个圆圈代表一个神经元,它们连接起来形成一个网络。人脑神经元细胞的树突从外界接受多种不同强度的刺激,在神经元细胞体内进行加工,然后转化为输出结果。人工神经元也有类似的工作原理,如图:上图中,x为神经元的输入,相当于树突接受了多个外界刺激。w是每个输入对应的权重,影响每个输入x的刺激强度;b代表阈值,用来影响预测结果;z是预测结果。2、MP模型01的激活函数是什么:激活函数(Activationfunctions)在神经元中,输入数据经过加权求和后,还要应用一个函数,这就是激活函数。Why(为什么使用):引入激活函数是为了增加神经网络模型的非线性。没有激活函数的每一层都相当于一个矩阵乘法。引入非线性因子,使神经网络可以任意逼近任意非线性函数,从而使神经网络可以适用于多种非线性模型。常用激活函数:①Sigmoid函数:常用作神经网络的阈值函数,将变量映射在0和1之间,公式如下:其形象如下:②Tanh函数Tanh()是由基本双曲函数导出双曲正弦和双曲余弦。公式如下:其形象如图所示:③ReLU函数用于隐藏层神经元的输出。公式如下:其形象如下:02MP模型参数说明:模拟外界刺激为;模拟每个树突对输入的刺激处理,作为给输入赋予一定的权重();模拟核对输入的处理为一个带有bias()的求和过程,利用激活函数()对求和结果进行非线性变换,得到y。公式表示如下:向量形式如下:数学理解:设神经元的输出y为输入函数;公式解释:对f(X1,X2,...,Xm)进行泰勒展开,然后进行二阶和三阶偏,相当于一个一阶泰勒近似。3.总结人工神经网络和人脑一样,网络越复杂,功能越强大;层数越多,构建的神经网络越复杂。用于训练的数据越多,需要层数非常多的网络来实现。本文仅代表本人对人工神经网络的看法,如有错误请指出~
