深度学习作为机器学习方法的一种,是实现人工智能的重要基础。近期,有学者认为,随着人工智能的发展,深度学习的短板日益凸显,“瓶颈来了”。深度学习的瓶颈真的到了吗?关于这个问题,本文将分为两部分,分别探讨深度学习的优缺点,以及改进方法,整理专家学者的不同思考,以供读者参考。不久前,世界人工智能和计算机视觉领域的奠基人之一约翰霍普金斯大学教授AlanYule提出了“深度学习(Deeplearning)在计算机视觉领域的瓶颈已经解决”的观点。到了”,引发了业内众多专家的热议。共鸣和辩论。目前,深度学习是人工智能的一种形式,旨在更接近地模仿人脑。那么,业内专家学者是否认同这种说法呢?作为人工智能技术的重要基础,深度学习在发展过程中遇到了哪些困难?如果已经达到深度学习的瓶颈,我们该如何解决这个问题呢?带着相关问题,科技日报记者日前采访了国内外人工智能领域的知名专家,对于乐教授的观点进行深度解读。深度学习如此高深最初,当深度学习刚进入大多数人工智能研究者的视线时,遭到嘲笑,但仅仅几年后,它的触角便伸向了众多高科技领域,横跨谷歌、微软、百度等.多项业务。许多高科技公司都热衷于探索深度学习的一种特殊形式——卷积神经网络。卷积网络由相互连接的卷积层组成,很像大脑中处理视觉信息的视觉皮层,不同之处在于它们可以在图像的多个位置重复使用相同的过滤器。一旦卷积网络学会识别一个位置的人脸,它也可以自动识别其他位置的人脸。这个原理也适用于声波和手写文本。业内人士认为,卷积神经网络可以让人工神经网络快速训练,因为“内存占用很小,不需要为图像中的每个位置单独存储过滤器,这使得神经网络非常适合创建可扩展的深度网络(Deepnets)”。这也赋予了卷积神经网络擅长识别图形的优势。正是基于此,谷歌为安卓手机开发了语音识别系统,百度开发了新的视觉搜索引擎。当然,卷积神经网络需要强大的计算机和庞大的数据集才能正常工作,而且它们在收集数据或计算平均值方面并不完美。卷积神经网络的支持者、Facebook人工智能实验室负责人IanLeCun表示,当今使用最广泛的卷积神经网络几乎完全依赖于监督学习。这意味着要让卷积神经网络学习如何识别特定对象,必须标记多个样本。无监督学习可以从未标记的数据中学习,更接近人脑的学习方式。在此基础上发展起来的反向传播算法可以有效地降低错误率,但不太可能反映人脑的运行机制。LeCun说:“我们几乎完全不了解大脑是如何学习的。虽然人们已经知道神经元突触可以自我调节,但大脑皮层的机制还不清楚。最终的答案是无监督学习是一种学习。”它更接近人脑的学习方式,但无法回答大脑的认知机制。”瓶颈凸显需警惕“深度学习虽然优于其他技术,但并不具有普适性,经过几年的发展,其瓶颈已经凸显出来。”不久前,艾伦于乐指出。余乐认为,深度学习存在三大局限:第一,深度学习几乎总是需要大量的标注数据。这导致视觉研究人员过度关注易于标记的任务,而不是重要的任务。其次,深度网络在基准数据集上表现良好,但在数据集外的真实世界图像上可能会严重失败。特别是,深度网络难以处理数据集中不常发生的“罕见事件”。在现实世界的应用中,这些情况具有潜在的风险,因为它们相应的视觉系统故障可能会产生可怕的后果。例如,用于训练自动驾驶汽车的数据集几乎从不包含“坐在路上的婴儿”。第三,深度网络对图像的变化过于敏感。这种过度敏感不仅体现在图像的标准上难以察觉的变化,也体现在语境的变化上。由于数据集大小的限制,过度敏感会导致系统做出错误的判断,但这种过度敏感以及由此产生的图像变化是很难骗过人类观察者的。例如,在丛林中一只猴子的照片中,一把吉他经过Photoshop处理。这导致AI将猴子误认为人类,将吉他误认为鸟类。大概是因为它认为人类比猴子更有可能携带吉他,而鸟类比吉他更有可能在附近的丛林中。乌尔认为,瓶颈背后的原因是一个叫做“组合爆炸”的概念:在视觉领域,从组合学的角度来看,现实世界中的图像数量太大了。任何数据集,无论多大,都难以表达现实的复杂性。更重要的是,每个人选择和放置物体的方式不同,构建的场景数量可以成倍增加。而这需要无限大的数据集,这无疑对训练和测试数据集提出了巨大的挑战。业内专家表示,这三大局限虽然不能扼杀深度学习,但都是需要警惕的信号。“死”的理论值得商榷。去年,深度学习领域的一位知名学者在脸书上发表了一个惊人的声明——深度学习已死,在业界引起轩然大波。现在在线机器学习社区有人说深度学习学习是死路一条。“我认为‘深度学习已死’这句话来自于业内人士,他们非常看好深度学习,但后来意识到它的局限性。而局限性并不意味着这个东西已经死了,我们可以给它加点东西。”法国泰雷兹集团CTOMarkErman告诉科技日报记者。“我不同意‘深度学习已死’的说法。”新一代人工智能产业技术创新战略联盟联合秘书长、科大讯飞副总裁、人工智能研究院联席院长李世鹏指出。李世鹏表示,深度学习作为计算科学领域的一种新方法,当然有其局限性和缺陷。这个在外界被炒作万能的AI工具,一直被科学界谨慎对待。从一开始,大家就知道它的一些局限性,比如依赖标注大数据、不可解释、缺乏推理等。函数,对包含在训练集中的样本效果很好,但对不包含的样本效果很差,系统模型处于不稳定状态等。计算机视觉已经到了,尤其是在这个时间点他讨论问题是必要的,而且在方向上有矫枉过正。似乎给人一种“非深度学习非AI”的感觉,其实这是个大问题,因为深度学习确实只是人工智能的一个领域,实现的是比较狭隘的成功经验。”远望智库人工智能事业部总监、图灵机器人CSO谭明洲指出。总而言之,李世鹏表示,深度学习已死的观点值得商榷。未来相当长一段时间,深度学习将对人工智能的发展起到积极的推动作用,具有巨大的应用价值,与此同时,科学家们也逐渐清醒地认识到深度学习的先天缺陷和局限性,现阶段正在努力弥补。发展不足,在各自领域探索下一代人工智能的突破。
