“如果有人说(深度学习)撞墙,那么他们只需要列出深度学习不能做什么5年后,我们将能够证明深度学习已经完成。”6月1日,隐居老人GeoffreyHinton做客加州大学伯克利分校教授PieterAbbeel的播客。两人进行了90分钟的对话,从Masked自动编码器、AlexNet到尖峰神经网络等等。在节目中,Hinton明确质疑了“深度学习已经碰壁”的观点。“深度学习碰壁”的说法出自知名人工智能学者加里·马库斯(GaryMarcus)3月份的一篇文章。准确的说,他认为“纯端到端的深度学习”已经接近尾声,整个AI领域必须找到新的出路。出路在哪里?根据GaryMarcus的说法,符号处理将大有可为。然而,这种观点并没有得到社会的重视。Hinton之前甚至说过:“任何对符号处理方法的投资都是一个巨大的错误。”Hinton在播客中的公开“反驳”显然引起了GaryMarcus的注意。就在十几个小时前,GaryMarcus在推特上给GeoffreyHinton发了一封公开信:信中说:“我注意到GeoffreyHinton正在寻找一些具有挑战性的目标。在ErnieDavis的帮助下,我确实写下了这样一份清单,上周我给马斯克打了10万美元的赌注。”Musk来这里是怎么回事,原因还要从5月底的一条推文说起,与Musk的10万美元赌注,早就被理解为HAL和JARVIS等电影中描述的那种AI,不像现在针对特定任务训练的AI,AGI更像人脑,可以学习如何完成任务。大多数专家认为AGI需要几十年才能实现,而有些人甚至认为这个目标永远无法实现。在对该领域专家的调查中,估计到2099年有50%的机会实现AGI。相比之下,马斯克显得更加乐观,甚至在推特上公开表示:“2029年是关键的一年。如果到那时我们还没有实现AGI,我会感到惊讶。希望火星上的人也一样。”不以为然的加里·马库斯连忙问道:“你愿意下注多少?”虽然马斯克没有回答这个问题,但加里·马库斯继续表示他可以在长注中组局,金额为100,000美元在加里·马库斯看来,马斯克的相关观点并不可靠:“比如你在2015年说要实现完全自动驾驶汽车需要两年时间,之后你几乎每年都说同样的话,但是现在全自动驾驶还没有实现。”他还在博客中写了五个标准来测试AGI是否实现,打赌:2029年,AI将无法看懂电影并准确告诉你发生了什么(人物他们是谁,他们的冲突和动机是什么等);2029年,AI无法阅读小说并可靠地回答有关情节、人物、冲突、动机等问题;2029年,AI无法成为任何厨房的称职厨师;在2029年,AI无法可靠地构建超过10,000行无错误的c通过自然语言规范或与非专家用户的交互来颂扬(将现有库中的代码粘合在一起不算在内);任意取证取自用某种语言编写的数学文献,并转换成适合符号验证的符号形式。“这是我的建议。如果你(或其他任何人)设法在2029年完成至少三个,你就赢了。交易?十万美元怎么样?”已经涨到50万美元。不过,截至目前,马斯克并未做出回应。GaryMarcus:AGI并不像你想象的那样“近在咫尺”6月6日,GaryMarcus在《科学美国人》发表文章,重申了他的观点:AGI并不在身边。对于普通人来说,人工智能领域似乎正在取得巨大进步。在媒体报道中:OpenAI的DALL-E2似乎可以将任何文本转换为图像,GPT-3无所不知,DeepMind于5月发布的Gato系统在每项任务上都表现出色……DeepMind的一位高管甚至吹嘘要开始一项任务对于通用人工智能(AGI),一种具有类人智能的AI……不要被愚弄了。有一天机器可能会像人一样聪明,甚至可能更聪明,但现在还没有。要创造出真正理解和推理现实世界的机器,还有很多工作要做。我们现在真正需要的是少炒作,多做基础研究。可以肯定的是,人工智能确实在某些领域取得了进步——合成图像看起来越来越逼真,语音识别可以在嘈杂的环境中工作——但我们距离一般人类水平的人工智能还有很长的路要走,例如,人工智能还不能理解文章和视频的真正含义,也不能应对意想不到的障碍和中断。我们仍然面临着人工智能多年来所面临的同样挑战——让人工智能变得可靠。以Gato为例,给定任务:给一张投手投球的图片加上字幕,系统返回三种不同的答案:“一名棒球运动员在棒球场上投球”,“一名男子在棒球场上向投手投球”一个棒球场。”Baseball”和“Abaseballplayeratbatandacatcherinabaseballgame”。第一个答案是正确的,而其他两个似乎包含图像中不可见的其他球员。这意味着Gato系统不知道什么是实际上在图像中,但大致相似图像的典型特征。任何棒球迷都可以看出是投手刚刚投球——虽然我们希望附近有接球手和击球手,但图像中显然没有他们同样,DALL-E2混淆了这两种位置关系:“红色立方体在蓝色立方体之上”和“蓝色立方体在红色立方体之上”。同样,谷歌5月份发布的Imagen模型也无法区分在“马上的宇航员”和“宇航员的马”之间。当像DALL-E这样的系统出错时,你可能会觉得很滑稽,但有些AI系统一旦出错,就会导致严重的问题。例如,一辆特斯拉自动驾驶汽车最近直接驶向了一个拿着停车标志的工人在道路中间,需要人类驾驶员干预才能减速。自动驾驶系统可以单独识别人类和停车标志,但在遇到两者的异常组合时却无法减速。因此,不幸的是,人工智能系统仍然不可靠并且难以应对快速适应新环境。Gato在DeepMind报告的所有任务上都表现出色,但很少像其他当代系统那样出色。GPT-3经常写出流畅的散文,但仍然在基本算术上苦苦挣扎,而且它对现实知之甚少,以至于它容易出现“一些专家认为吃袜子有助于大脑改变状态”这样离谱的句子。这背后的问题在于,人工智能领域最大的研究团队我它不再是学术机构,而是一家大型科技公司。与大学不同,企业没有公平竞争的动力。他们的新论文在没有学术审查、直接媒体报道和回避同行评审的情况下通过新闻稿。我们得到的信息只是企业本身想让我们知道的。在软件界,对这种商业策略有一个专门的词“demoware”,意思是软件的设计非常适合展示,但不一定适合现实世界。而这样营销的AI产品要么无法顺利发布,要么在现实中一塌糊涂。深度学习提高了机器识别数据模式的能力,但它存在三个主要缺点:学习到的模式是肤浅的,而不是概念上的;产生的结果难以解释;并且很难一概而论。正如哈佛计算机科学家LesValiant所说:“未来的核心挑战是统一AI学习和推理的形式。”目前,公司正在寻求超越基准而不是创造新想法,并且他们在现有技术上取得的进展很小。改进而不是停下来思考更根本的问题。我们需要更多人提出基本问题,例如“如何构建可以同时学习和推理的系统”,而不是追求华而不实的产品演示。这场关于AGI的争论远未结束,其他研究人员也加入进来。研究员ScottAlexander在他的博客中指出,GaryMarcus是一个传奇人物,他在过去几年所写的内容或多或少有些不准确,但仍然有它的价值。比如,GaryMarcus之前就批评过GPT-2的一些问题。八个月后,当GPT-3诞生时,这些问题都迎刃而解。但GaryMarcus并没有对GPT-3手下留情,甚至写了一篇文章:“OpenAI的语言生成器不知道它在说什么。”本质上,目前有一个观点是正确的:“GaryMarcus嘲笑Largelanguagemodels是一个噱头,但随后这些模型会越来越好,如果这种趋势持续下去,AGI很快就会实现。”
