你可能对卷积神经网络很熟悉。它是深度学习的经典算法之一。1990年代以来,在计算机视觉和自然语言处理领域不断取得惊人成果。卷积神经网络(CNN)最早于1993年在贝尔实验室(AT&TBellLaboratories)用于文本识别演示,其演示者是被称为“CNN之父”的YannLeCun。如今,LeCun当年的demo视频再次被网友挖出,并迅速登上Reddit热搜,获得近千赞。有网友评论说,在演示之前,像通用人工智能(AGI)等难题,这种文字识别被认为是不可能完成的。不少网友留言表示,他们是真正的工程师,向他们致敬!据悉,这段视频展示了世界上第一个用于文本识别的卷积神经网络,这是CNN广泛应用于计算机视觉和自然语言处理领域的重要开端。CNN:HandwrittenDigitRecognitionTask1990年代初期,LeCun加入了当时世界上最负盛名的研究机构之一的贝尔实验室。在32岁时,他和他的同事创建了一个系统来读取和识别手写数字,这是一个典型的端到端图像识别系统。在演示视频中,系统快速准确地识别出手写号码210-949-4038。据说这是LeCun在贝尔实验室的电话号码。此外,它在处理更密集、更多样化的数字识别任务时也表现出了不错的表现,这在90年代是非常少见的。在视频中,参与这项实验的研究人员还包括实验室负责人里奇霍华德和计算机专家唐尼亨德森。据了解,此次代码开发主要针对NCR(NationalCashRegisterCorporation)的支票阅读系统。总的来说,由于数值计算能力有限,学习样本不足,同时以支持向量机(SupportVectorMachine,SVM)为代表的核学习方法在同一时期兴起,这一时期是各种图像处理的大好机会。用于问题设计的卷积神经网络仍处于实验室研究阶段。然而,在1998年,YannLeCun和他的合作者共同构建了一个更完善的卷积神经网络LeNet-5,并在手写数字的识别上取得了进一步的成功。到20世纪90年代后期,该系统已经处理了美国10%-20%的支票识别。事实上,LeCun早在1989年就提出了LeNet-5神经网络。LeNet的初始版本包含两个卷积层,2个全连接层,总共60,000个学习参数,在规模上远超TDNN和SIANN,非常在结构上接近现代卷积神经网络。值得一提的是,LeCun在1989年发表的论文《使用反向传播和神经网络识别手写数字》中,首次在讨论其网络结构时使用了“卷积”一词,“卷积神经网络”由此诞生,随后LeCun得到了业界的认可.被称为“CNN之父”。MNIST数据集就是基于这个实验。LeCun还创建了经典的手写数据集MNIST,这是一个用于研究机器学习和模式识别等任务的高质量数据库。它被Hinton称为“机器学习的果蝇”。二十多年来,手写数字图像的MNIST数据集一直被用作机器学习基准。它包含一个训练集和一个测试集。训练集包含60,000个样本,测试集包含10,000个样本。每个样本都是一张28*28像素的灰度手写数字图片。MNIST数据集包含各种(0~9)手写数字。据悉,MNIST数据集是从NIST数据库中提取出来的。训练数据来自2000名人口普查局员工的手写文字,测试数据来自500名在校学生的手写文字。由于测试集中的样本数量较少,MNIST很难提供有意义的置信区间。2019年6月,Facebook和纽约大学的研究人员对数据集进行了扩展和重构,将50,000个样本添加到测试集。作为回应,LeCun转发了这个新数据集重生、恢复和扩展MNIST。目前该数据集包括以下四个文件:手写数字识别是计算机视觉领域的基础项目,相当于机器学习中传说中的“HelloWorld”,因此MNIST数据集也被开发者广泛使用.深度学习之父严乐存从1998年开始深耕深度学习领域,发表了多篇重要论文,如OverFeat检测框架、用于立体匹配的CNN、DropConnect方法等,与总共被引用超过100,000次。2015年,他与蒙特利尔大学教授YoshuaBengio、谷歌副总裁兼工程研究员GeoffreyHinton共同撰写综述论文《深度学习》,发表于Nature。LeCun是??CNN的大推手。2018年,Yann还因“将反向传播算法引入CNN(卷积神经网络),并发明了权值共享和池化等技术,使CNN更好用”而获得了ACM(国际计算机协会)奖。2018年美国计算机协会图灵奖。在宣布获奖者时,ACM协会称这三位计算机科学家为“深度学习革命之父”,并指出“三位科学家取得了概念和工程上的突破,使深度神经网络成为计算的关键部分。”被誉为“计算机界的诺贝尔奖”的图灵奖,源于英国数学家艾伦·图灵的名字——因为他发明了最早的人工计算机模型“图灵机”。YoshuaBengio和GeoffreyHinton也共同获奖。值得一提的是,Hinton还是LeCun博士期间的导师。在多伦多大学学习。Hinton的研究重点是使用神经网络进行机器学习、记忆、感知和符号处理的方法。当时,深度神经网络学科风起云涌,LeCun在神经网络方面的研究得到了Hinton的大量指导和帮助。此外,LeCun还获得了IEEE神经网络先驱奖(2014年)和IEEEPAMI杰出研究员奖(2015年)。他目前是纽约大学数据科学中心的创始主任,Facebook副总裁兼首席人工智能科学家。在2020AAAI协会上,LeCun就人工智能的未来发表了题为《Self-Supervised Learning》的主题演讲。他认为深度学习已经到了瓶颈,自监督学习才是人工智能的光明未来。他说,虽然深度学习方法在自动驾驶、语言翻译、聊天机器人等领域占有一席之地,但它们无法创造出“真正的”人工智能。自监督学习将是未来的发展趋势,因为它可以更接近人类的学习过程。
