深度学习领域最著名的学者之一YannLeCun今天在他的脸书上发表了一篇短文,瞬间引爆了国内人工智能粉丝的朋友圈。这是什么动态?为何会引起如此轩然大波? 我们常说的深度学习是所有深度学习算法的总称,而卷积神经网络是深度学习算法在图像处理领域的一种应用。而YannLeCun是??卷积神经网络的领军人物,也被称为“卷积神经网络之父”。卷积神经网络的出现对人工智能发展的重要性不言而喻。而这次YannLeCun的推文传播得如此之快,还有比“卷积神经网络”更重要的学术成果吗?为了让国内读者了解LeCun发的推文,雷锋网编辑整理了推文。 以英语-法语句子开头,标题党风格: DeepLearningestmort。万岁微分编程! 翻译成中文:深度学习已死,可微编程万岁! 为什么要强调这句话?深度学习算法是人工智能诸多领域的底层框架,为何死了?然后往下看,发现LeCun说“深度学习”这个词已经死了,应该有一个新名词来取而代之。 LeCun提到了新词可微编程。 他在推文中解释说,“可微分编程”只是现代深度学习技术的新名称,这与神经网络只有两个或更多隐藏层时的名称相同。”几乎。对于现代深度学习技术,“深度学习”这个词已经不够用了。 他再次写道:但重点是人们现在正在通过组装参数化功能模块和训练的网络来构建一种新型软件他们使用某种基于梯度优化的方法。越来越多的网络以数据相关的方式(循环和条件)以编程方式定义,允许它们随着输入数据的变化而动态变化。这与普通程序非常相似,除了它是参数化的、可自动微分的、可训练和可优化的。动态网络越来越流行(尤其是对于NLP),这要归功于PyTorch和Chainer等深度学习框架(注:早在1994年,之前的深度学习框架Lush,就能够处理一种名为GraphTransformerNetworks的特殊方法用于文本识别的动态网络)。目前正在积极研究为命令式可微分编程语言开发编译器,这是开发基于学习的AI的一条非常令人兴奋的途径。 ***,LeCun还强调,把“深度学习”的名字改成“可微分编程”是不够的,其他一些概念也需要改变,比如“预测学习”应该改成“Imputative”学习”。他说以后再说吧……(读者可以帮忙想想还有什么需要更名的,这句话是雷锋网加的)。一起关注LeCun的最新消息吧! LeCun脸书截图:
