被寄予厚望的深度学习,是否会让人工智能陷入又一轮AI寒冬?人工智能存在于我们每天接触的许多技术中,从最常见的语音助手和个性化推荐到成熟的自动驾驶汽车。从去年到现在,AI领域传来了更多的好消息。OpenAI的GPT-3从自然语言处理中衍生出绘制和键入代码的能力。DeepMind推出了一款“进阶版AlphaGo”——MuZero,即下棋又下棋。在此之前,他根本不知道棋局规则,完全是靠自己摸索赢得了棋局。一时间,“AI将取代人类”的声音不绝于耳。但另一方面,人类饱满的AI梦想也在与骨感的现实发生碰撞。最近,传闻IBM的WatsonHealth将被出售。这个曾经想为人类解决肿瘤治疗的AI部门,6年来一直没有盈利。更致命的是,WatsonHealth的诊断准确率和专家结果只有30%重合。放眼国内,“AI四小虎”中的商汤科技和旷视科技不时传出上市计划,但似乎都背负着“上市难”的魔咒。旷视科技创始人尹奇去年7月曾对媒体表示,AI的快速爆发发生在五六年前,现在正处于“死亡之谷”的泡沫期。繁荣表象之外的冷酷现实,不禁让人联想到“人工智能的寒冬”:人工智能相关研究或其他项目难以获得资金,人才和企业停滞不前。清华大学人工智能研究院院长张博曾表示,业界提倡深度学习,但其自身的“缺陷”决定了其应用空间仅限于特定领域——大部分集中在图像识别和语音领域认出。目前,深度学习似乎已经到了瓶颈期。尽管财力和算力仍在投入,但深度学习的回报率并没有相应提高。“目前,基于深度学习的人工智能已经走到了技术天花板,这条技术路线带来的‘奇迹’在AlphaGo获胜后还没有出现,估计也很难继续大量出现在围棋领域。”未来。”张博说道。被寄予厚望的深度学习,会让人工智能陷入又一轮寒冬吗?“每一次人工智能‘冬天’到来之前,科学家们都会夸大自己研究的潜力。说自己的算法擅长某项任务还不够,他们迫不及待地说AI可以解决一切。”长期研究数据科学和AI的作者ThomasNield说。但是真正的通用人工智能似乎离我们还很遥远。什么是深度学习?就在AI慢慢沉寂下来成为“隐性学习”的时候,GeoffreyHinton、YoshuaBengio和YannLeCon三位学者悄然开始了AI的一个重要分支——神经网络的研究。神经网络通常被比作具有多层的三明治,每一层都包含人工神经元,这些神经元在兴奋时会将信号传递给另一个连接的神经元。简单来说,神经网络就是一层层的数字,这些数字被称为“神经元”。之所以这样命名,是因为科学家认为这些数字是相互连接的,传递信号,就像大脑中的神经元通过突触传递神经刺激一样。神经网络的每一层中的数字都是通过一些约定的数学规则从上一层中的数字计算出来的。“深度学习”的概念起源于神经网络的研究,也就是对神经网络的研究。这里的“深度”指的是神经网络包含了无数的隐藏层,深不可测。机器要模拟人的行为,首先要获取数据,然后进行预处理、特征提取、特征选择,再进行推理、预测或识别。其中最关键的是中间的三个步骤,这也是系统中计算量最大的部分。现实中一般都是人工提取特征,而深度学习的思想是自动学习特征。深度学习模型一般由输入层、隐藏层和输出层组成。其基本思想是:将上一层的输出作为下一层的输入,实现输入信息的层次化表达,然后通过结合低层的信息,形成更抽象的高层表示属性类别或特征特征来发现数据的分布特征。也就是说,机器学会了“抽象思维”。以上三位AI大师坚持各自的学术方向,将神经网络扩展到更多领域,如计算机视觉、自然语言处理等。终于,几十年后,他们等到了深度学习的时代。互联网和移动终端的兴起让海量数据触手可及,随着人类一次次挑战纳米世界的极限,计算机硬件也在按照摩尔的预言疯狂奔跑。2012年,GeoffreyHinton的基于卷积神经网络的AlexNet以惊人的优势赢得了ImageNet视觉识别挑战,深度学习一举成名。另外,在本次实验中发现,只要图像的样本量足够大,隐藏层数足够多,识别率就可以得到很大的提升,这给学术界和企业带来了极大的鼓舞。更多数据,更智能?OpenAI最新的自然语言处理模型GPT-3几乎读遍了整个互联网的海量内容。它总共读取了大约5000亿个单词,模型有大约1750亿个参数。系统拥有上万个CPU/GPU,它们一天24小时不间断地“读取”任何领域的信息,半个月读取整个互??联网。注入数据量是这个AI模型的“暴力”。但是GPT-3并没有变得完全像人类。比如,它也会回答不符合人类常识的“伪问题”,这恰恰证明它并没有理解问题本身。Uber人工智能实验室前负责人GaryMarcus曾多次给深度学习泼冷水:“人类可以按照明确的规则进行学习,比如用一块钱学会二次方程的三种形式,然后就可以用解决各种问题;看到过京巴和柴犬,再看就知道德国牧羊犬也是一种狗,但是深度学习不是这样的,“更多的数据=更好的模型性能”才是深度学习的基本规律。它没有能力从字面上给定规则来学习。”“深度学习就是寻找那些重复的模式,所以重复太多就认为是规律(真理),所以如果一个谎言重复一千遍,那为什么大数据有时会产生非常荒谬的结果呢,因为不管对不对,只要重复多了,都会遵循这个规律,就是谁说多了将是那个。”张博院士也表示,深度学习“没有那么神秘”。因为无法真正理解知识,“深度学习学到的知识并不深奥,也很难迁移,”马库斯说。AI系统往往有上千亿个参数,犹如黑匣子之谜。深度学习的不透明性会导致AI偏见等一系列问题。最重要的是,人工智能仍然需要被人类使用。“你要它做决定,你不理解它,就让飞机飞吧,谁敢开这架飞机?”张博强调,人工智能必须具有可解释性。最重要的是,用数据淹没AI的做法是对算力的极大考验。MIT研究人员了解深度学习性能与计算能力之间的联系,分析了Arxiv.org上的1058篇论文和资料,主要分析了图像分类、对象检测、问答、命名实体识别和机器翻译两个方面的计算要求:数量每次网络遍历的计算量,或给定深度学习模型中单次遍历(即权重调整)所需的浮点运算数。训练整个模型的硬件负担是通过将处理器数量乘以计算速度和时间来估算的。结论表明,训练模型的进步取决于计算能力的大幅提升。具体来说,算力提升10倍,相当于算法提升3年。换言之,在算力提升的背后,实现目标所隐含的计算需求——硬件、环境和金钱的成本将变得难以承受。摩尔定律假设计算能力每两年翻一番。根据OpenAI的一项研究,AI训练中使用的计算能力每三到四个月翻一番。从2012年开始,人工智能需要算力提升30万倍,但根据摩尔定律,AI只能提升7倍。人们没想到芯片算力的极限来得这么快。无法提供算力是一回事,但业界甚至认为这种“暴力”模式的方向是错误的。“知识、经验和推理能力是人类理性的基础。今天形成的人工智能系统非常脆弱,容易受到攻击或欺骗,需要大量数据,无法解释。存在非常严重的缺陷。这个缺陷是必不可少的,由方法本身引起。”张博说,“深度学习的本质是用概率学习的‘黑箱’处理方式,利用未经处理的数据来寻找它的规律。它只能找到重复出现的模式。也就是说,你无法做到真正的仅依靠数据来获得情报。”深度学习的红利即将耗尽,但人工智能仍在发展,在张博看来,既然深度学习从根本上是错误的,那么技术提升将非常困难,很难彻底解决人工智能的根本缺陷。是这些缺陷决定了它的应用空间局限在一个特定的领域——大部分集中在图像识别和语音识别。”我看了一下,中国人工智能的20家独角兽和30家准独角兽中,近80%人工智能领域与图像识别或语音识别有关。”成熟的人工智能技术还有很大的应用空间。目前学术界正在围绕克服深度学习中存在的问题开展深入的研究工作.希望企业界特别是中小企业密切关注研究工作的进展,将新技术应用到自己的产品及时。当然,像谷歌、BAT这样规模的公司也会从事相关的研究工作,他们会把研究、开发和应用结合起来。”一直给深度学习泼冷水的DL的GaryMarcus,提出要给深度学习祛魅:“我不认为我们要放弃深度学习。相反,我们需要重新定义它:不是把它当成灵丹妙药,而是只是作为众多工具中的一种,在这个世界上,就像我们仍然需要锤子、扳手和钳子一样。”“深度学习只是当前人工智能技术的一部分,人工智能还有更大更广的领域需要研究,比如知识表示、不确定性处理、人机交互等等大片领域,不能说深度学习就是人工智能。”张博说道。此外,中科院自动化研究所副所长刘成林曾表示,“今天的人工智能热潮,主要取决于模式识别和深度学习的成功。深度学习的红利会逐渐枯竭,但很多AI的方向(感知、认知、学习、语言理解、机器人、混合智能、游戏等)会继续发展,一般不会跌入深渊。
