这是一个简单的推送,今天我们简单说说深度学习的名字。深度学习的复苏可以从2012年算起,那一年,深度学习网络AlexNet诞生,并在ImageNet比赛中获得冠军。2016年,AlphaGo的胜利将深度学习推向了我们每个人。.然而,如今流行的深度学习,其实在学习方式上与已经存在了几十年的神经网络并无二致。那么,为什么神经网络突然变成了深度学习呢?好吧,用吴恩达的话来说,深度学习就是神经网络的一次品牌重塑。这个名字,至少听起来,很……深……哇,深度学习,听起来好深……那么,深度学习的本质变了吗?不,改变的只是数据量和计算能力。不管喜欢与否,今天在复杂任务中达到人类水平表现的学习算法与1980年代努力解决玩具示例的学习算法几乎相同。这不是我胡说八道,这是AI圣经花书里的原话。AI圣经——《花之书》真正颠覆了我们拥有成功训练这些算法所需的资源——数据量和计算能力。然而,深度一定要那么好吗?不必要。这个问题可以从两个方面来看。首先,一味地增加网络的深度是不好的。太深的网络不容易训练!太深的网络不容易训练!太深的网络不容易训练!学习模型,模型的复杂度越高,模型的学习能力越强(理论上)。这就好比说变量越多,就可以表达出越复杂的公式。从这个角度来看,无论神经网络变得更深还是更宽,模型的复杂度都会增加。这是很自然的想法,所以在深度学习的发展中,也出现了这两种风格的经典网络。一个看起来很深的ResNet,比如网络层有152层的ResNet:一个看起来很深很胖(很宽)的ResNet,比如使用Inception模块的Inception网络族。加宽的Inception模块是一个很有用的网络结构,甚至还有一个将两者结合的网络:Inception-ResNet。这样一个听起来很复杂的网络结构,确实是……庞大,这里就不展示了。当然,这种深度和宽度的扩展需要大量的计算资源。在资源有限的情况下,深度优于宽度,这就涉及到直击深度的灵魂问题——深度在做什么学习!一种随着网络层的深入而进行的学习。这种学习有一个专业术语叫做特征学习,或者表示学习。书中网络学习的一个例子《深度学习》一个深度学习网络有很多层。当我们将图像发送到网络中时,首先在最底层,我们看到的似乎是像素,逐层最重要的是,网络层“看到”了边缘、轮廓、组件等。网络的深度带来了层层抽象的能力,所以深度网络有学习的能力,带来的宽度也比较简单。随着计算能力的提升,深度当然更符合学习模型的结构。当然,这只是一个提示。现实中神经网络的分层比较模糊,中间网络层的输出还是一个比较抽象的概念。很难说出哪些网络层“看到”了什么特征。但是总的来说,当我们逐渐往上走的时候,网络确实在不断的抽象对象。而这正是宽度无法带来的能力。所以,我们有深度学习,而不是广度学习。要说一开始,深度学习可能只是一个好听的名字,但是在今天,我们使用和看到的网络确实越来越深入。2012年引人注目的AlexNet只有8层,但到了2015年,残差法让训练深度神经网络成为可能。Resnet的网络深度直接达到了152层。到2016年,ImageNet比赛的冠军已经使用了1207层的网络。深度学习对你来说真的很有说服力。
