深度学习的工作原理:一窥驱动当今AI的神经网络本文以图形方式解释了如何构建和训练这些神经网络。图1.架构图人工神经网络中的每个神经元对其输入求和并应用激活函数来确定其输出。这种架构的灵感来自大脑中神经元通过突触相互传输信号的机制。图2这是一个假设的前馈深度神经网络的结构(“深”是因为它有多个隐藏层)。此示例显示一个网络,该网络解释手写数字的图像并将它们分类为10个可能的数字之一。输入层包含很多神经元,每个神经元都有一个激活值,设置为图像中某个像素的灰度值。这些输入神经元连接到下一层的神经元,在它们乘以某个值(称为权重)后传递它们的激活水平。第二层中的每个神经元对许多输入求和并应用激活函数来确定输出,该输出以相同的方式前馈。训练这个神经网络是通过计算实际输出和预期输出之间的差异来训练的。这里的数学优化问题的维度与网络中可调参数的数量一样多——主要是神经元之间连接的权重,可以是正[蓝线]或负[红线]。训练网络本质上是找到这种多维“损失”或“成本”函数的最小值。它在多轮训练中迭代完成,逐渐改变网络的状态。在实践中,这需要根据为一组随机输入示例计算的输出对网络权重进行多次小调整,每次都从控制输出层的权重开始并在网络中向后移动。(为简单起见,此处仅显示与每一层中单个神经元相关联的连接。)此反向传播过程对许多随机训练示例集重复,直到损失函数最小化,然后网络将其提供给任何新的输入它可以提供的最佳结果。图3图4第1步:当输入显示手写“3”时,未训练网络的输出神经元具有随机激活。期望与3相关的输出神经元具有高激活[深色阴影],而其他输出神经元具有低激活[浅色阴影]。因此,例如,必须增加与3相关的神经元的激活[紫色箭头]。图5第2步:为此,从第二个隐藏层的神经元到数字“3”的输出神经元的连接权重应该得到修正[黑色箭头],其大小与连接的隐藏层神经元的激活成正比元素。图6第3步:然后对第二个隐藏层中的神经元执行类似的过程。例如,为了使网络更准确,这一层的顶部神经元可能需要降低它们的激活[绿色箭头]。可以通过调整与第一个隐藏层[黑色箭头]的连接权重,将网络推向该方向。图7步骤4:然后对第一个隐藏层重复该过程。例如,这一层中的第一个神经元可能需要启动[橙色箭头]。原标题:HowDeepLearningWorksInsidetheneuralnetworksthatpowertoday'sAI,作者:SAMUELK.MOOREDAVIDSCHNEIDERELIZASTRICKLAND
