当前位置: 首页 > 科技观察

LeCun再次炮轰Marcus:他是心理学家,不是AI

时间:2023-03-12 04:25:31 科技观察

近日,LeCun接受了ZDNet的采访,表示当今大多数人工智能方法永远不会带来真正的人工智能。而采访中最精彩的部分,当然是与老对手的远距离枪战。LeCun的语言并不奇怪,他语气犀利:Schmidhuber只是一个插旗手,而Marcus根本不搞AI,他只是一个心理学家。6月,Meta的首席人工智能科学家YannLeCun发表了一篇长达60页的论文,描述了一种他认为有可能在机器中实现人类智能的方法。论文地址:https://openreview.net/pdf?id=BZ5a1r-kVsf在他的论文中,他暗示当今大多数大型人工智能项目永远无法达到人类水平。近日,LeCun在接受ZDNet采访时表示,他对深度学习领域即使是最成功的研究方法也抱有极大的怀疑。“我认为它们是必要的,但还不够,”他说。其中包括大型语言模型,例如基于Transformer的GPT-3及其同类模型。正如LeCun所描述的那样,Transformer的信徒相信“只要我们将所有东西标记化并训练巨大的模型来做出离散的预测,人工智能就会以某种方式从这里出现。”“他们没有错,”他说,“从某种意义上说,这可能是未来智能系统不可或缺的一部分,但我认为它缺少一个重要的部分。”对于正在完美使用卷积神经网络的学术界来说,这种批评已经足够惊人了。在人工智能的许多非常成功的领域中,LeCun看到了缺陷和局限性。他对强化学习领域也持有相同的看法:像这些领域一样,强化学习尽管DeepMind的DavidSilver等研究人员开发了精通国际象棋、将棋和围棋的AlphaZero程序,但LeCun说:“我们的大部分学习过程不是通过实际行动完成的,而是通过观察完成的。”乐存今年62岁,在这个领域浸淫了几十年,他认为有必要提醒很多人:一往无前的奔波是一条死路。“很多人都在讨论我们应该怎么做实现人类水平的人工智能。很多人都说错了。“我们的智能机器还没有达到猫有常识的地步,”他说,“我们为什么不从这里开始呢?”他已经放弃使用生成网络来预测视频中的下一帧。“这是一个彻底失败。在他眼里,那些“宗教概率论者”应该受到谴责——在这些人看来,概率论是唯一可以用来解释机器学习的框架。在LeCun看来,纯粹的统计方法是不可能的。“让世界模型完全服从概率论的要求太高了;我们不知道该怎么做。”LeCun认为,不仅是学术界,人工智能在工业界也需要重新思考。在他看来,Wayve等自动驾驶汽车公司“过于乐观”了,因为他们认为只要将数据扔进一个大型神经网络,就能学到任何东西。“我们完全有可能拥有没有ADAS(高级驾驶辅助系统)的5级自动驾驶汽车,但必须对其进行设计。”他认为,这种过度设计的自动驾驶技术将随着所有深度学习而过时。就像我们的计算机视觉程序一样,它非常脆弱,非常脆弱。“最终,将会有一个更令人满意和更好的解决方案,一个可以更好地理解世界运作方式的系统。”LeCun还提出了一个重要的观点:所有AI都面临着相同的基本问题,尤其是如何衡量信息。“你必须退后一步说,好吧,我们建造了这个梯子,但我们的目的是去月球,而这个梯子不会让我们登上月球。”LeCun表示,他希望促使人们重新思考基本概念。“我的意思是,我们需要建造火箭。我不能告诉你建造火箭的细节,但这是基本原理。”好了,好了,面试最火的部分就到这里了。首先,LeCun炮轰的对象是DalleMolle人工智能研究所所长JürgenSchmidhuber。Schmidhuber曾因LeCun抄袭他的学术成果而激怒了他。乐存表示,施米德胡贝尔在社交网络上发表的观点根本不属实。他只是在竖起旗帜:有一个想法建议你做什么,然后把它写下来,没有任何实验,没有任何理论。像他那样玩,和实际做理论(说出为什么有用,然后付诸实践)是有很大区别的。这里面有一整条链条。在Schmidhuber看来,谁先有想法谁就获得荣誉是荒谬的。他说我应该引用的论文没有包含我论文中的任何主要思想。他正在用GAN和其他东西做这件事,但结果与他所说的完全不同。插旗很容易,但做出贡献就难多了。顺便说一句,对于这篇论文,我明确表示这不是通常意义上的科学论文,它更像是一篇关于何去何从的立场文件。我不要求比我在论文中写的大部分内容有任何优先权。而LeCun的宿敌纽约大学教授GaryMarcus自然也逃不过他的炮火。当谈到通过向神经网络添加符号推理来推进人类水平的人工智能时,LeCun说他不知道该怎么做。他说,在他的论文中,他介绍了一种无需明确符号操作即可完成此操作的方法。这就是加里·马库斯所做的。随后,LeCun爆出神评——“GaryMarcus不是AI,他是心理学家,他从来没有对人工智能做出过任何贡献,他??在实验心理学方面有不错的成绩,但他从来没有写过同行——审查人工智能的论文。是的,有些人就是这样。”Marcus翻了翻旧日历:LeCun说的,我已经说了ZDNet的采访第一天就放出来了,GaryMarcus的回复文章第二天就来了!Marcus写道:YannLeCun,62岁的井——知名深度学习先驱、纽约大学教授、图灵奖获得者、Meta首席人工智能科学家,近几年对深度学习的新思路层出不穷。就在6月初,LeCun发表了一份备受讨论的“宣言”,连同对我工作的批评。但他所说的有多少是真正新鲜的?昨天看了ZDNet对LeCun的采访后我感到震惊,因为LeCun所说的几乎所有内容,我之前都说过,其中一些几乎是逐字逐句的,大部分是在2018年的一篇名为《Deep Learing:A Critical Appraisal》的论文中,LeCun当时说我说的“大部分是错误的”。论文链接:https://arxiv.org/ftp/arxiv/papers/1801/1801.00631.pdf那么他在2022年讲了什么?我有什么2018年甚至更早之前说过?我只是举几个例子。LeCun:今天的人工智能方法永远不会导致真正的智能Marcus:如果我们要实现通用人工智能,深度学习必须辅以其他技术。LeCun:目前的深度学习模型可能是未来智能系统不可或缺的一部分,但我认为它缺少了一个必要的部分。我认为它们是必要的,但还不够。“马库斯:尽管我已经列出了所有问题,但我认为我们不需要放弃深度学习。相反,我们需要重新构想它:不是作为一种通用工具,而是作为众多工具中的一种。”LeCun:强化学习永远无法满足智能化的需求。Marcus:将深度强化学习与归纳概念联系起来是一种误导。LeCun:我认为人工智能系统需要能够推理;Marcus:那些与分类关系不大,与常识推理关系较大的问题,基本上不在深度学习的范围之内,而且据我所知,深度学习对这类问题并不擅长。帮助不大。LeCun(2022):你必须退一步说,好吧,我们建造了这个梯子,但我们想去月球,这个梯子不可能让我们登上月球。Marcus(2012):应用一个古老的寓言,Hinton通过深度学习构建了一个更好的阶梯;但是更好的梯子不一定能让你登上月球。没有人比LeCun更仔细地重述我提出的论点,没有归属。让这么厉害的人把我早就说过的观点说了好几次,这算不算我的又一次胜利?如果说上面这段话是在为自己争功劳,那么Marcus博客后半部分的内容似乎完全是针对LeCun本人的。比如Marcus说LeCun不希望别人知道他说了我说的观点,而且他没有为这些观点分享任何功劳,这是违反学术礼仪的。此外,为了孤立我,他在采访中对我进行了无端的、完全不真实的攻击,声称“GaryMarcus不是AI研究人员,他是心理学家,从未为AI做出过贡献。他在实验心理学,但他从未写过关于AI的同行评审论文。”这是完全错误的。事实上,我在AI领域发表了大量文章,一些在同行评审期刊上,一些不是。我最重要的AI论文,在神经网络上做实验工作,在1998年预见了挑战仍然困扰着Bengio等人的分布变化和异常值。也许我最有影响力的AI工作恰好不是期刊文章,而是麻省理工学院2001年出版的一本书《代数思维》。ZDNet采访中LeCun的几乎每个点都在这本书中提到书。LeCun真正的意思是他没看过书,根本没看过,认为没有影响的想法很可笑。LeCun的说法太离谱了,后来很多人来为我说话专访发表,ZDNet也第一时间发表了更正声明,Vmind.AI的CEOMiguelSolano发推表示支持,HenningSchwabe甚至直接表示LeCun的专访太狂妄了,狂妄是理性的敌人:为了树立自己的学术地位,人们有时会对信贷做出不负责任和不道德的行为。哈罗德·布鲁姆(HaroldBloom)曾经写过一本书,他将其命名为《影响的焦虑》。直到今年,我才在像LeCun这样尊贵的人身上看到这种倾向。但从今年开始,我在他身上一次又一次地看到。LeCun最近的每一篇文章都以自己的方式表达了对过去的否定。关于符号操作的问题。LeCun花费了大量时间来攻击符号操纵,他的合作者之一Hinton更是如此,他在2015年的一篇深度学习评论中表示,“需要新的范式来取代基于规则的符号表示”。今天,LeCun支持符号操纵,就好像以前的攻击不存在一样。连斯坦福大学人工智能教授ChristopherManning都感到震惊。LeCun最近的另一篇文章触及了大型语言模型是否真的存在的重要问题。AGI的正确路径,以及模型是否真的可以仅从语言中学到足够的东西。LeCun和他的合作者Browning提出了一个强有力的案例,即仅靠语言输入(即GPT-3的训练对象)是不够的。他们写了一篇名为《AI And The Limits Of Language》,认为“只有通过语言训练的系统永远不会接近人类智能,即使从现在开始训练到宇宙尽头也不会。”但同样,这一点是我在2020年2月的一篇名为《人工智能的下一个十年》的arXiv预印本文章中提出的。“等待认知模型和推理从越来越大的训练语料库中神奇地出现,就像等待奇迹出现一样……”这几乎是LeCun和Browning的结论。前面说过,大语言模型的问题是缺乏认知模型,仅靠喂语料训练是无法实现智能模型的。然后LeCun说我现在说这些已经来不及了:我最先提出的观点,他现在发现我是对的,并且宣布这是他的第一个观点,我还能说什么呢?现在看来,对LeCun的包罗万象有疑问的远不止我一个。此前,在LeCun的“宣言”发表时,德国计算神经科学家和AI研究员帕特里克·克劳斯(PatrickKrauss)发推表示“恭喜”。看来我们离AGI只有两点,一是常识,二是LeCun世界模型。我很难看出LeCun最近的一连串动作有什么新意,所以我昨天在Twitter上请他解释一下。到目前为止,他还没有回应。