当前位置: 首页 > 科技观察

LeCun预测AGI:大模型和强化学习是斜坡!我的“世界模型”是新路

时间:2023-03-20 01:10:20 科技观察

AI世界最著名的当代巨人之一,Meta的AI实验室的灵魂人物YannLeCun,长期致力于让机器对世界有基本的认识操作概念,也就是让AI获取常识。过去LeCun做的是用视频选段来训练神经网络,让AI逐像素预测日常活动视频的下一帧会出现什么。不出所料,据他自己承认,这种方法遇到了困难。经过几个月到一年半的思考,LeCun对下一代AI有了新的想法。人工智能的新路径LeCun在接受《MIT科技评论》的采访时,概述了他的新研究路径,称这将为机器探索世界提供常识基础。对于LeCun来说,这是构建AGI(通用人工智能)的第一步。一台能像人一样思考的机器是AI行业诞生时的指导愿景,也是最具争议的想法之一。但LeCun的新道路可能远未完成,提出的问题多于答案。最大的疑问是LeCun自己承认他还不知道如何创造他所描述的那种人工智能。这条道路的核心是一个神经网络,它可以以不同于以往的方式看待和了解现实世界。LeCun最终放弃了让AI逐像素猜测下一帧视频,只让新的神经网络学习完成任务所必需的关键知识。LeCun然后打算将这个神经网络与另一个称为“配置器”的神经网络配对。“配置器”决定主神经网络必须学习哪些细节,并相应地自动调整主系统。对于LeCun来说,AGI是人类与未来技术互动的一个组成部分。当然,这个前景不谋而合,他的老板MetaCompany倾其所有打造了Metaverse。LeCun表示,在10-15年内,AR眼镜将取代目前智能手机的地位。AR眼镜必须有一个虚拟的智能助手,可以辅助人类的日常活动。如果这些助手要发挥最大作用,它们必须或多或少地跟上人脑的智能。“世界模型”是AGI核心LeCun最近热衷的“世界模型”。据他介绍,这是大多数动物大脑的基本运作方式:对现实世界进行模拟。动物使用预测试错法从婴儿期开始发展智力。幼儿通过观察现实世界的运动和挫败感,在生命的最初几个月中发展智力基础。观察一个小球下落数百次,一个普通的宝宝即使没有上过基础物理课,没有学过牛顿三定律,对万有引力的存在和运行也有基本的了解。所以这种直觉/默会的推理被普通人称为“常识”。人类用常识来识别现实世界中最可能的未来和不可能的幻想,预见自己行为的后果并做出相应的决定。这种智能既不需要像素级的精确细节,也不需要完整的物理参数库。即使没有视力或不识字,也能正常发挥智慧。但是教机器常识是很困难的。当前的神经网络必须展示数千个示例才能开始模糊地检测潜在的规则模式。根据LeCun的说法,智能是基于预测近期未来的常识能力。然而,在放弃了AI的逐像素预测后,LeCun表示他想改变主意。LeCun打了个比方:想象一下,你捏了一支笔,然后松手。常识告诉你,笔不可避免地会掉落,但掉落的精确位置超出了人类智能的预测范围。按照以往的AI开发模型,AI需要运行复杂的物理模型来预测笔是否会掉落,同时获取掉落的精确位置。现在LeCun试图让AI只预测笔会掉落的常识性结论,而准确的位置不在解决方案的范围内。LeCun说,这是“世界模型”的基本模型。LeCun表示,他已经建立了一个可以进行基本物体识别的“世界模型”的早期版本,现在正致力于训练它来学习上述常识性预测。不过,“配置器”在这其中的作用,LeCun表示自己还没有想好。LeCun想象中的“配置器”AI是整个AGI系统的控制元素。它将随时决定世界模型需要做出哪些常识性预测,并调整世界模型处理的细节来做到这一点。LeCun现在坚信“配置器”是必不可少的,但他不知道如何训练神经网络来达到这种效果。“我们需要找出一份可行技术的清单,而这份清单目前还不存在。”在LeCun的设想中,“配置器”和“世界模型”是未来AGI基础认知架构的两个核心部分。在此之上,我们可以开发感知世界的认知模型,驱动AI调整行为的激励模型,等等。这样,神经网络就可以成功模拟人脑的各个部分,LeCun说。比如“配置器”和“世界模型”扮演的是额叶,激励模型是AI的杏仁核等等。认知架构、具有不同细节层次的预测模型,这些是业界多年来存在的思想流派。但当深度学习成为AI行业的主流时,这些陈旧的想法很多都变得过时了。现在LeCun重拾传统智慧:“人工智能研究界已经忘记了很多这些东西。”大模型和强化学习都是死胡同。之所以重回老路,是因为LeCun坚信目前行业的主流路径已经走入了死胡同。关于如何做出AGI,目前AI界有两种主流观点。一是很多研究人员坚信一条乌龙路:就像OpenAI的GPT系列和DALL-E系列一样,模型越大越好,如果超过临界点,AI就会唤醒人类的智能。二是强化学习:不断试错,根据试错结果对AI进行奖惩。这就是DeepMind一家做各种棋牌AI、游戏AI的方式。这种方法的信徒认为,只要正确设置奖励激励,强化学习最终会创造出真正的AGI。乐村表示,这里的两种人都是垃圾:“无限扩大现有大型语言模型的量级,最终能做出人类级别的AI?这种荒谬的说法,我一秒钟都不信。这些模型只能简单地处理各种文本和图像数据,根本没有对现实世界的直接体验。”“强化学习需要海量数据来训练模型执行最简单的任务,我认为这种方法没有机会做成AGI。”业内人士对LeCun的观点既有支持也有反对。如果LeCun的愿景得以实现,人工智能将成为不亚于互联网的下一代基础高性能技术。但他的表述并没有包括他自己的模型的性能、激励机制、控制机制等。不过,这些缺点都是小事,因为无论褒贬,业内人士一致认为,要面对这些缺点需要很长时间。因为即使是LeCun现在也做不出AGI。乐存本人也承认了这种情况。他表示,只希望为新的理论路径播下种子,让后来者在此基础上建树成果。“实现这个目标需要太多人付出太多的努力,我现在提出这些东西,只是因为我认为这条路才是最终的正路。”即便无法做到这一点,LeCun也希望能说服同行们,不要只盯着大模型和强化学习,最好打开思路。“我讨厌看到每个人都在浪费时间。”业内反应:褒贬不一。与LeCun有着深厚友谊的另一位AI领袖YoshuaBengio表示很高兴看到老朋友实现梦想。”Yann说这些已经说了很久了,但是看到他把各种演讲都总结在一个地方还是很开心的。不过这些只是研究方向的申请,不是结果报告,人们通常只在下面私下分享这些,公开谈论的风险相当高。”在DeepMind领导开发游戏AIAlphaZero的DavidSilver不同意LeCun对其项目的批评,但欢迎他实现自己的愿景。“LeCun描述的世界模型确实是一个令人兴奋的新想法。”加利福尼亚州圣达菲研究所同意LeCun的观点:“业界在深度学习社区中确实不常看到这一点。但大语言模型真的没有记忆,也没有内部世界模型骨干。”GoogleBrain的NatashaJaques不以为然:“你已经看到大语言模型极其高效,而且它们还混合了相当多的人类知识。没有语言模型,我如何升级LeCun提出的世界模型?即便是人类学习,其方式也不仅仅是亲身体验,更是口耳相传。”