神经符号系统、跨学科交互,李飞飞等16位学者共同探讨AI的未来方向展开直播辩论。今年,GaryMarcus主持了与Montreal.AI负责人VincentBoucher的第二次辩论。李飞飞、JudeaPearl、RichSutton等共16位学者参与了本次辩论。他们讨论了“推动人工智能向前发展:一种跨学科方法”这一主题。加里马库斯说:“这场辩论旨在展示不同的观点。”这场辩论包括三个主题:“架构与挑战”、“神经科学和心理学的见解”以及“构建可信赖的人工智能”:GaryMarcus首先回顾了去年与Bengio的那场辩论,并指出现在是讨论下一个问题的时候了十年:“如何将人工智能提升到一个新的水平”。随后,16位学者就各自的研究和观点进行了畅谈,整个辩论持续了3个多小时。演讲题目总结:https://montrealartificialintelligence.com/aidebate2/readings.pdf辩论视频:https://montrealartificialintelligence.com/aidebate2/架构与挑战首先,第一个话题“架构与挑战”。参与讨论的学者有:YejinChoi、LuisLamb、Fei-FeiLi、RobertNess、JudeaPearl、KenStanley和RichSutton。斯坦福大学计算机系教授李飞飞率先发言,谈到了AI“北极星”。她说,“北极星”是与环境的互动。随后,巴西南里奥格兰德州联邦大学计算机科学教授LuísLamb谈到了“神经符号AI”。Lamb表示,基于Marcus的书《The Algebraic Mind》中提到的概念对神经符号的工作涵盖了基于神经网络操纵符号的需要。“我们需要基本的方法来形式化两者的逻辑,”例如JudeaPearl的想法。然后,DeepMind杰出研究科学家RichSutton讨论了强化学习。他首先提到了神经科学家DavidMarr对计算视觉信息处理研究的三个层次:计算理论、表示与算法、硬件实现。Marr对计算理论很感兴趣,但“目前在AI这一领域的研究非常少。”Sutton说,像梯度下降这样的想法是关于计算理论所要求的“如何”,而不是“什么”。萨顿说:“人工智能需要一个大家都认可的智能计算理论,而强化学习是最强的候选者。”紧接着,图灵奖得主、贝叶斯网络之父、《为什么》畅销书作者JudeaPearl就《因果推理的归化》发表了演讲。他说,深度学习是一座金矿,“我为推动因果革命而打造的新引擎可以代表心智状态的计算模型,即‘深度理解’”。“深度理解将是唯一能够回答“什么是?Deep)ProbabilisticProgramming”。“概率编程将是解决因果推理的关键。只是?”中佛罗里达大学计算机科学教授肯·斯坦利讨论了进化和创造力。“在过去的几千年里,从火到空间站,新事物都是在以前的事物的基础上发展起来的。这是一个开放的系统。”史丹利说,产生智能的进化是一个平行的“现象系统”。“从我们存在之初,我们就获得了之前几千年的创造力,我们应该尽力了解这些现象。”随后,华盛顿大学计算机科学系副教授YejinChoi发言。她谈到了语言的重要性,并表示语言是“生成任务的推理”。她认为:“我们人类进行实时推理,这将成为未来人工智能发展的关键和基础挑战之一。”她认为,未来新的语言模型,如GPT-4/5/6等,还远远不够。在几位学者发表了他们的观点之后,Marcus试图总结他们共同关注的问题:反事实、处理不熟悉和开放的问题、整合知识、JudeaPearl认为仅靠数据是不够的观点,常识的重要性(就YejinChoi对“生成”的观点而言)。Marcus问道:“现在有六七种不同的观点,我们要不要把它们整合起来?要不要让强化学习和知识兼容?”LuisLamb说,神经符号系统不在于“怎么做”,重点是要理解我们在学习方面有相同的目标,即构建一些非常扎实和扎实的东西,但表示先于学习。Marcus邀请学者思考“模块化”。RichSutton表示,他对将问题作为一个整体来考虑的方法持开放态度,而不仅仅是表示。他认为,大家应该想一想借助计算理论要达到的总体目标是什么,“我们需要各种各样的计算理论”。YejinChoi指出:人类有能力相信新奇事物,做出奇怪的因果推论。“我们是在尝试建立一个类似人类的系统吗?”她问。她还提到了人类有趣的一面,就是能够通过自然语言交流大量知识,通过自然语言进行学习。Marcus向李飞飞和KenStanley询问了“神经进化”领域的发展状况。李飞飞说,进化是智能最伟大、最丰富的实验之一,智能背后隐藏着一系列统一的原理。然而,她说她不受进化的生物学限制,而是提炼出原理。来自神经科学和心理学的见解辩论的第二个主题是“来自神经科学和心理学的见解”,由DannyKahneman、ChristofKoch、AdamMarblestone、DorisTsao和BarbaraTversky进行了讨论。斯坦福大学心理学名誉教授芭芭拉·特沃斯基认为,所有生物都必须在空间中运动,运动停止,生命结束。特沃斯基还谈到了人们如何做手势和进行空间运动,这些运动会影响人类思维的变化。“学习、思考、沟通、合作和竞争,全靠行动和几句话,”她指出。接下来是丹尼尔卡尼曼,诺贝尔经济学奖得主和《快思慢想》(思考,快与慢)的作者,这是关于AI推理问题的权威书籍。他表示,他认同书中的两种思维范式:System1和System2思维。一种是直觉形式,另一种是更高级的推理形式。卡尼曼认为,系统1包括任何非符号系统,但这并不意味着它是一个非符号系统。系统1包含世界的表示,以便人们可以模拟他们生活的世界。很多时候,人都过着同样的生活,发生的事情也大多是我们所期待的。系统1模型认为许多事件是“正常的”,即使它们是意外的。系统1拒绝接收其他事件。继JudeaPearl的观点之后,卡尼曼表明系统1中存在大量反事实推理,其中对正常事物的自然理解主导了这种推理。紧随其后的是加州理工学院生物学教授DorisTsao。她专注于反馈系统并回顾了McCulloch和Pitts神经元的早期工作。她引用多层神经网络中的反向传播,认为反馈至关重要。理解反馈可以让人们建立更强大的视觉系统,而反馈系统也可以帮助理解幻觉等现象。最后,她说她对机器学习和系统神经科学的交互感到非常兴奋。接下来是麻省理工学院的AdamMarblestone,他曾是DeepMind的一名研究科学家,从事神经科学工作。他认为,观察大脑并试图总结大脑运行的原理,这些“还处于非常原始的水平”。此外,他还认为卷积神经网络等只是在复制人类行为。西雅图艾伦脑科学研究所的研究员克里斯托夫·科赫断言:“不要指望神经科学有助于人工智能的发展。”他认为,理解大脑还有一百或两百年的时间,因此从大脑的机械基质中寻求灵感以加速AI发展是错误的,这与Marblestone的观点形成鲜明对比。“这与人造物体的特性完全不同,”他说。作为回应,马库斯问了更多问题,比如“多样性”。大脑皮层的一个部分可以告诉我们其他部分的哪些信息?Tsao回答说,“相似性”更令人印象深刻,它可能揭示大脑如何运作的真正深刻的一般原则。预测编码是一种“规范模型”,可以解释很多事情。“寻找这个一般原则将产生很大的影响。”科赫说,在这一点上,细胞类型“非常不同”,例如视觉神经元与前额叶皮层中的神经元非常不同。Marblestone认为,“需要更好的数据”,以便“从经验上理解Christof所说内容的计算含义”。马库斯还询问了“先天性”。他问卡尼曼他对“目标文件”的看法:“你头脑中用来记录你正在追踪的一切的索引卡,它是一种自然结构吗?”卡尼曼回答说,“对象文件”是大脑在跟踪对象的过程中产生的一个永久概念。他把它比作警察档案,随着证据的收集,这些档案会随着时间而改变。所以,对象文档是“天生的”。Marcus认为在深度学习中没有等价的“对象文档”。构建可信赖的AI本次辩论的第三个主题是“构建可信赖的AI”,RyanCalo、CelesteKidd、MargaretMitchell和FrancescaRossi做出了贡献。加州大学伯克利分校教授CelesteKidd的实验室研究人类如何形成认知。Kidd说算法偏差是危险的,它们“有时会以破坏性的方式影响人类的认知”。她以用于内容推荐的人工智能系统为例,认为此类系统会导致“更强烈、更难纠正的误解”。例如,亚马逊和LinkedIn使用AI进行招聘,这可能会对女性候选人产生负面影响。“AI系统中的偏见强化了用户的偏见,现在的AI很可怕。”基德还提到了TimnitGebru被谷歌解雇的事情,称“Timnit在谷歌的经历是常态”。GoogleSenior“开发机器学习算法的典型方法是收集训练数据,训练模型,过滤输出,然后让人类看到输出,”研究科学家玛格丽特米切尔说。但人为偏见是数据收集、标记和整个开发过程中的一个重要问题,它会进一步影响模型训练。后处理阶段同样有偏差。“人们看到输出,它变成了一个反馈回路,我们试图打破这个系统,这是一种偏见洗钱。”米切尔说:“发展没有中立的东西,发展是有价值的。我们需要分解发展涉及到什么,让人们反思,朝着“可以预见的利益”努力,远离“可以预见的危害和风险”。技术通常善于突出技术的优势,但不善于应对有风险,也没有考虑长期影响”。IBM同事FrancescaRossi讨论了创建可信AI生态系统的任务。“当然我希望它是准确的,但除此之外,我们还需要很多属性,包括一致性价值观、公平性和可解释性,”她说。可解释性非常重要,尤其是在机器与人类一起工作的情况下。罗西回应了米切尔对“透明度”的需求。“有原则是不够的,”她说。“这需要大量咨询,而且在帮助开发人员了解如何改变做事方式和组织内部的伞式结构方面还有很多工作要做。”Rossi说神经符号系统和Kahneman的System1和System2对于模型在机器中的价值非常重要。最后一位演讲者是华盛顿大学法学教授瑞安·卡洛(RyanCalo)。是没有意义的,因为在实践中原则的目的是使决定没有争议。我认为我们不需要原则。我们所要做的就是坐下来评估人工智能对人类负担能力的影响,然后相应地改变法律制度。没有监管人工智能并不意味着法律不能改变。”Marcus回答说:“潘多拉魔盒现在打开了,世界正处于人工智能最糟糕的时期。我们拥有这些系统,这些系统在不知情的情况下由数据管理。”然后,马库斯问及“基准”:机器能否以某种可靠的方式让我们朝着常识的方向前进?Choi回应说,基于实例的机器训练或自我监督学习是一个陷阱。米切尔指出,认知偏见会导致歧视,而歧视和偏见在模型开发中“密切相关”。珀尔回应说,如果可以理解某些偏见,就可以通过算法来纠正它们。“如果某些偏见可以被建模,它们就可以被修复,”他说,他称之为“偏见清理”的过程。基德说她的实验室工作是为了反思“误解”。在这个世界上,人们会表现出偏见,即使有些无法用证据证明。Ness指出,认知偏差可能是有用的归纳偏差。这意味着人工智能问题不仅是哲学问题,而且可能是“非常有趣的技术问题”,他说。马库斯询问人们对机器人的看法:如今大多数机器人只进行少量的物理推理,比如房间导航。我们如何解决这个对人类非常有效并将其扩展到语言的物理推理问题?李飞飞说:表示和交互是智能的一部分。我非常赞同物理推理是开发智能的重要原则,但不一定非要造物理机器人,学习智能体可以满足部分需求。Marcus接着问起李飞飞实验室的模拟工作,特别是“affordance”:说到可视化,很多都是物理的affordance,拿着铅笔,拿着手机等等,我们离这里还有多远?李飞飞说:“非常接近,比如芯片巨头Nvidia的物理建模工作,在下一阶段的AI发展中,我们要做这个。”萨顿说:“我尽量不去思考知识的具体内容”,因此他倾向于将空间视为一种思考其他事物的方式,它是从一种状态过渡到另一种状态。“我反对这个问题,我不想把物理空间看作一个特例。”特沃斯基认为,“人类可以从观察他人中学到很多东西。但我也想到了互动、模仿。对于年幼的孩子来说,这不是确切的动作,而是目标。”马库斯回应道:“进球非常重要。”他以婴儿为例,14个月大的婴儿会模仿——要么是精确的动作,要么是意识到对方在疯狂地做某事,而不是重复动作,宝宝会做出别人做的动作正在努力做到。先天不等于出生,但在生命早期,空间和目的的表征非常丰富,我们在AI中还没有很好的系统。Choi重申了语言的重要性。“我们想要将常识研究限制在婴儿身上,或者我们想建立一个也能捕捉成年人常识的系统。语言对我们来说太方便了,它代表了成年人的常识。”好奇心Marcus将话题转向好奇心:“好奇心是人类能力的重要组成部分,它可以在某种程度上增强认知能力。”Koch认为:“这不是人类独有的。年轻的黑猩猩、小狗、小猫……它们也想探索这个世界”,斯坦利指出:“这是一个很大的谜题,因为很明显,好奇心是早期发展、学习和人类智力的基础,但我们不知道这种行为是如何发生的来了吗?“如果我们想要一个好奇的系统怎么办,我们必须解决一个非常主观的概念:“什么是有趣的”,然后我们必须与主观性作斗争,而这正是我们作为科学家不喜欢的。”斯坦利说.Pearl提出了一个不完整的好奇心理论。好奇心是由哺乳动物的舒适和控制系统中的漏洞驱动的,因为它们试图找到进入它们的方式。“任何时候它有漏洞,你都会感到恼火或沮丧,这会激发你的好奇心。当你填补那些漏洞时,你会觉得自己在掌控之中。”Sutton指出,在强化学习中,好奇心扮演了一个低级的角色,用来驱动探索。“这几年,人们开始把‘paly’看成一个更大的角色,我们定下的目标现在可能没有用,但将来可能会有用。‘paly’可能是人类做的一件大事,玩是一件大事。”当被问及“元认知”的概念时,罗西回答说,“卡尼曼的系统1或系统2中一定有某个地方在推理一个实体自身的能力,我可以用那种方式或另一种方式来回答,或者设计一个新程序来响应外部刺激”。Rossi认为这种能力可能有助于激发好奇心和“玩耍”的概念。李飞飞说:“作为一名科学家,我想在科学知识和人工智能原理方面进行深入探索。我仍然认为我们的人工智能时代是牛顿物理学之前的时代。我们还在学习现象学和工程学。总有一天,我们会开始了解智能原理。作为公民,我希望这项技术能够理想地改善人类状况。它是如此深刻,可以非常非常糟糕,也可以非常非常好。我希望看到这项技术的框架以最仁慈的方式开发和部署。”兰姆说:“我很喜欢图灵的一句话,他说我们只能看到前方很短的距离。就像飞飞说的,作为科学家,我希望人工智能进步。但是,人工智能有很大的影响,而且人工智能的发展是我们的主要责任。正如加里所说,我们必须寻求融合,使人工智能更公平、更少偏见,使其成为人类世界积极因素的一部分。我们需要以非常人性化的方式看待我们的领域。我们必须以严肃的道德原则、法律和规范为指导。我们正处于人工智能寒武纪大爆发的早期,需要非常清楚社会、道德和全球影响。我们必须关注南北分歧,而不仅仅是从单一的文化角度来看它。”Sutton认为:“AI听起来像是纯技术的东西,但我同意Lamb的观点,它可能是人类。所有努力中最人性化的。我期待着我们加深理解,一个充满不同类型智能的新世界,增强人类,新人类,理解,多样性。”珍珠说:“我的野心很有限,我想要的是一个聪明、友善、有能力的徒弟。我想了解我自己,我是如何思考的,我的情绪是如何被激发的。一些关于我自己的科学问题(比如意识和自由意志)我还没有回答。如果我能像我一样用自由意志制造一个机器人,我会认为这是最伟大的科学成就,我预测,我们会成功的!”Ness说:“很多讨论都是关于人类工作的自动化,试想一下,用它来增强人类智能和改善人类体验应该会很有趣。我见过人类使用大型模型来写诗,但如果我们可以创建一种工具来帮助诗人创作新诗,那不是很好吗?我喜欢流行音乐,但我们也需要听到一些新的东西。第一批创建Photoshop的工程师创建了虚拟现实角色的矩阵图像,但现在没有设计师不知道如何使用Photoshop。我希望AI能像Photoshop为设计师所做的那样为人类体验做出贡献。“对我来说,这有点像罗伯特说的,我们必须为自己做这件事。我们不想摆脱自己。有些事情没有别人的帮助是无法完成的。当我看到伟大的艺术时,我知道这很棒,但我可以创造伟大的艺术。我们拥有的这些潜在能力可以通过助手更明确地发挥出来。所以,人工智能可以做的是放大我们的思想,帮助我们更好地表达自己。我认为这就是我们想要做的”Choi:“有两件事让我很兴奋。我们一直在谈论好奇心。现在有趣的是,好奇心如何在学习范式中阅读事物,让我们做出以前从未做过的惊人创造,这将为智能带来新的力量.我会保持乐观,我们可以走得更远。然后我会找到新的自己,所以公平和多样性深深植根于我的心中。我真的很高兴这将使世界变得更美好。改善人们的偏见,并且通过创造AI来帮助人们了解自己的偏见,我们实际上可能能够帮助人们摆脱偏见,我期待看到明年会发生什么Tversky:“我看到很多AI试图模仿人类。那么人类是希望人工智能模仿自己的错误,还是人类希望通过人工智能提高自己?创造力,音乐,诗歌,这些都有帮助。我研究人类行为,一直对什么感兴趣AI社区可以创造。”Kahneman:“我最初对DemisHassabis的新AI很着迷。兴趣,让我震惊的是他看起来比几年前谦逊多了。这是一个美好的希望,它似乎越来越遥远最近几年,我也观察到:AI学徒和人类的概念应该保持在一个可管理的范围内,一旦AI或者任何正则化的系统有了类人的判断,那么它们最终也会有人类的判断,也许就不再需要人类的思维了。当人工智能掌握一个几乎不需要人类思维的领域时,它可能会非常复杂并且会产生非常糟糕的后果。”Tsao:“我希望了解人脑,我希望结合AI和神经科学,为大脑的工作原理提供最优美、最简单的解释。”Marblestone:“我希望人类的创造力能够增强,最好更多的科学家将能够做更多的事情,一些孩子将能够设计一个空间站。也许它会给我们带来普遍的基本收入,也许人类的后代会进入太空。”科赫:“作为一名科学家,我期待与人工智能合作。了解大脑,了解这些奇妙的数据集。但正如李飞飞教授所强调的,很多人工智能都是天真的。人工智能的发展突飞猛进,技术是造成不平等的原因之一。社会不平等、种族主义、社会媒体纷争愈演愈烈。今天,当我们谈论伦理时,我很惊讶人们正在讨论是否制造杀人机器人。不是问题的答案,但我认为我想从人工智能那里得到的就是我想从人类那里得到的。这也是我对人工智能意味着什么以及它能做什么的不同理解。以疫苗为例,谁得到疫苗,决策过程,都会指向算法,但算法背后是人。我们真正需要的是从AI转向独立的东西,这归结为让人类对自己的发展负责。”Mitchell:“我有很多想和大家说的一样。我的目标是找到有趣和好的东西,我们学术界非常擅长事后合理化。但从根本上说,我们所做的是自娱自乐,自私自利的冲动带来了这一点,但这不是一件好事,就像书呆子一样。我希望人工智能能做的是纠正人类的偏见。如果人工智能能够理解绩效评估中使用的语言,那么它就可以加入那些关于偏见的讨论。我希望人工智能能够反过来处理真正有问题的人类偏见。”罗西:“我必须跟进玛格丽特所说的话。人工智能可以解决棘手的问题,帮助我们了解自己。但我认为玛格丽特刚才说的很重要。从我的角度来看,在从事人工智能工作之前,我从来没有想过自己的价值观。人工智能系统应该用来做什么,不应该用来做什么。我觉得这不仅仅是我个人的反映,整个社会都有机会这样做。ThinkTheproblemwithAI是一种反思我们自身价值观的方式。我们会意识到我们的局限性,更清楚我们的价值观是什么。”卡洛:“我希望人工智能的成本和收益能够平均分配,并让公众相信这就是正在做的事情,我不认为在不修改法律的情况下这是可能的。最后,马库斯得出的结论是,这场辩论比他预想的还要精彩,并用一句非洲谚语作结:Ittakesavillage。他说:今天这里有个村子。
