当前位置: 首页 > 科技观察

李菲菲带路!16位跨学科大牛畅谈未来十年AI的干货

时间:2023-03-16 23:40:10 科技观察

纽约大学心理学与神经科学教授GaryMarcus与深度学习先驱、2018年图灵奖获得者YoshuaBengio进行线上“神仙大战”,邀请16位全球知名AI包括李飞飞在内的学者、生物科学家和法律专家,共同探讨过去一年人工智能在各个领域的进展和突破,以及未来十年如何将人工智能提升到下一个阶段。圆桌论坛以“MovingAIForward:AnInterdisciplinaryApproach”为主题,分为ArchitectureandChallenges、NeuroscienceandPsychologyInsightsfromNeuroscienceandpsychologyandbuildingatrustworthyAI(TowardsAIwecantrust)三个模块历时三个多小时。演讲题目摘要:https://montrealartificialintelligence.com/aidebate2/readings.pdf辩论视频:https://montrealartificialintelligence.com/aidebate2/1.李飞飞:与环境交互是下一个AI“北极星”。作为第一位演讲嘉宾,斯坦福大学教授李飞飞提到了人工智能领域的“北极星”,这是该学科未来的发展方向。近五十年来,人工智能领域一个非常重要的“北极星”就是物体识别,这也是人类认知能力中非常重要的一环。物体识别的进步也导致了ImageNet等AI基准测试的巨大突破。李飞飞引用了1963年一项基于动物的“与环境相互作用产生行为刺激”的研究,提出训练下一代AI与环境相互作用是未来的一个重要研究方向。她还提到,互动是智力中非常重要的一部分。就像婴儿是通过与外界的互动来认识世界一样,下一代的AI也应该具备通过与外界的互动来发展自身智能的能力,而这一代AI的实体不仅限于实体机器人,代理(可以自主行动的代理、软件或小型硬件)也可用。2.LuísLamb:在符号AI和神经网络之间架起一座“桥梁”巴西南里约热内卢联邦大学计算机科学教授LuísLamb在上周的NeurIPSAI大会上继续他的话题,谈到了“神经符号人工智能”。Neuro-SymbolicAI将20世纪70年代AI学术界流行的符号学与当前主流的神经网络算法相结合。简而言之,SymbolicAI可以对对象进行分类和定义,并将它们存储在自己的知识库中,但是如果你需要回答更复杂的问题,你需要建立一个足够大的知识库,因为SymbolicAI只能回答存在于知识库中的问题。知识库。分类。神经符号人工智能的具体实现方法是利用深度神经网络构建符号人工智能所需的知识库,然后利用符号人工智能对任务进行推理。Lamb提到连接符号AI和神经网络的通用方法是未来非常重要的研究方向,Marcus在《代数思维(The Algebraic Mind)》中提到的在神经网络中控制符号AI的方法也很有借鉴意义。3.RichSutton:强化学习或AI的第一个计算理论DeepMind科学家RichSutton认为AI需要公认的智能计算理论。他引用了神经科学家DavidMarr的三个处理级别的概念:计算理论、表示和算法以及硬件设备。他提出,当前AI环节没有计算理论,梯度下降等方法可以称为AI,但离称为AI还很远。理论。在演讲的最后,萨顿总结说,强化学习可能是第一个智能计算理论,而预测编码和贝叶斯推理也可以称为人工智能的计算理论。4.JudeaPearl:模型必须“理解”因果关系。图灵奖获得者、贝叶斯网络之父、畅销书的作者JudeaPearl讨论了如何让模型理解因果关系。Pearl认为,如果我们想让模型知道“当前情况如何”、“如果发生这种情况怎么办”以及“这是唯一的情况”,那么深入理解是最好的方式。对模型的深入理解是基于深度学习。珀尔说,他新开发的可以代表模型“心理状态”的计算模型是基于对模型因果关系的深度学习。5.RobertNess:ProbabilisticProgrammingAidsCausalReasoning机器学习专家RobertNess的演讲题目是“causalreasoningwith(deep)probabilisticprogramming”。Ness说,概率编程可以帮助我们在面对不确定性时做出决策,这在很大程度上避免了因果推理中过度依赖先验事实的缺点,也可以解决Pearl提到的一些问题。是这样吗?”问题。内斯以新冠病毒传播模型为例,概率编程可以利用自身的“不确定性”,根据以往的传染病数据进行流行病学建模,为“抗疫”贡献力量。6.肯·斯坦利:计算机的进化中佛罗里达大学计算机科学教授肯·斯坦利讨论了进化和创造力,计算机可以解决很多问题,但人类也可以做很多计算机做不到的事情,即开放式创新。“在过去的几千年里,从钻木取火到空间站,我们以开放的心态在旧事物上开发新事物。”斯坦利认为,计算机的进化路径是“现象级的(phenomenal)“是的,在不同的阶段会出现不同的应用需求和新的方法。我们需要了解这些现象,才能继续计算机的‘进化之路’。斯坦利也承认,在前期发送,计算机或人工智能的“进化”并不是那么完美。AI模仿的一些艺术画,看起来还不错,但不是真正的艺术,会对初学者造成伤害。打。斯坦利认为,这个时候,我们需要正确看待人工智能。它是帮助我们的工具,它的真正目的是帮助人类进步。它的进化与人类的进步是相辅相成的。7.YejinChoi:AI语言模型仍需大突破。华盛顿大学计算机科学系副教授YejinChoi通过著名的视错觉“隧道中的怪物”讲述了大脑如何根据视觉情境理解图像内容。随即,Choi还指出,语言理解是未来AI应用的重要组成部分。人类的大部分信息和推理都是通过语言获得和传播的。未来人工智能的语言能力也应该像人类一样,可以根据当前信息即时推理。她认为这将成为未来人工智能发展的关键和根本性挑战之一,但目前的未来新语言模型如GPT-4/5/6等还远远不足以实现这一目标。8.BarbaraTversky:LifeisMovement继以上七位科学家探讨了AI算法的未来预期后,本次圆桌论坛还邀请了五位生物学和神经科学领域的专家,共同探讨生物学与AI的“跨界”合作。斯坦福大学心理学名誉教授芭芭拉·特沃斯基认为,所有生物都必须在空间中运动,当运动停止时,生命就结束了。特沃斯基还谈到了人们如何做手势以及会影响人类思维变化的动作。她说:“学习、思考、沟通、合作、竞争,全靠行动和少量的言语。”特沃斯基还担心,当AI模仿人类行为进行学习时,它也会“继承”一些人类的错误。特沃斯基表达了他对如何让AI创造性地进化和更新,同时避免人类行为的消极方面的兴趣。9.DanielKahneman:AI可以利用人类的思维范式进行参考认知,比如依靠生活经验,我们可以预测大部分可能发生的事情,另外一种是更高级的推理形式,比如我们可以从更广的角度推测那些可能“反常识”的事件。卡尼曼认为,这种人类思维范式可以为AI所借鉴,AI模型可以发展出自己的思维,这也可以回答Pearl之前提到的因果推理问题。10.DorisTsao:机器学习与神经科学齐头并进加州理工学院生物学教授DorisTsao基于对神经元的研究,认为反馈系统不仅在生物神经传导中非常重要,而且同样在多层神经网络的反向传播中也起到了很大的作用。她说,反馈不仅可以让人们建立更强大的视觉系统,还可以帮助人们理解为什么会出现幻觉。Tsao还对机器学习和神经科学之间跨学科合作的未来充满希望。11.AdamMarblestone:卷积神经网络对于人脑模型来说还是非常“初级”的。加州理工学院前DeepMind教授、神经科学专家AdamMarblestone探讨了人脑运行规律与神经网络算法的异同。在讨论中,马布尔斯通提到,功能磁共振成像技术目前被用于分析人脑活动,以研究人类如何对物体进行分类。他认为,科学家对大脑的研究还处于非常原始的阶段,像卷积神经网络这样的算法只是简单地复制了人类的思维过程。12.ChristofKoch:学习人脑来开发人工智能目前还不可行。西雅图艾伦脑科学研究所的研究员ChristofKoch提出了不同的观点。他认为,科学家要了解人脑,至少还需要一两百年的时间。依靠神经科学来帮助人工智能的发展是行不通的。人脑和人工智能等人造物体的特性是完全不同的。科赫的观点与上述神经科学家的观点发生了激烈的碰撞。针对科赫和马布尔斯通“细胞的传导类似于神经网络中节点的传导”的反对意见,科赫回答说,即使是人类细胞本身也有很大的不同,例如视觉神经元与前额叶皮层的神经元有很大不同,当切换到神经网络等人工算法时,情况就更加多样化了。Marblestone认为科赫的观点需要更多的经验证据。十三。CelesteKidd:人工智能偏见加剧社会现有歧视随着论坛进入第三个模块,四位特邀专家开始探讨人工智能对人类社会、伦理和生活的影响。加州大学伯克利分校教授CelesteKidd研究人类如何形成认知。基德认为,AI系统的偏见强化了用户的偏见,内容推荐系统会让人们相信存在的偏见,而亚马逊和LinkedIn的AI招聘系统会对用户产生负面影响女候选人。基德表示:“就像谷歌解雇TimnitGebru一样,由AI引起的纠纷可能会成为常态。”14.玛格丽特米切尔:用技术突破技术“偏见”谷歌高级研究科学家玛格丽特米切尔认为,这些偏见是模型本身创建过程中的源头。通常,机器学习算法的开发需要经历收集数据、训练模型、评估模型和使用它们的过程。但是在收集和标记数据的过程中,人的参与是必不可少的,这意味着模型会存在一些来自开发者的偏差。米切尔说:“技术具有技术优势,但技术本身也确实存在一定的风险。我们试图解决这些问题,并使用偏见洗钱等方法来减少系统中的偏见。”十五、FrancescaRossi:如何构建可信的AI生态系统继Mitchell的话题之后,IBM的Rossi谈到了如何构建可信的AI生态系统。罗西表示,一个成熟的人工智能系统需要涵盖很多特性,比如准确性、一致性、公平性和可解释性。如何向人类同伴解释机器是如何工作的非常重要,这也是米切尔提到的洗涤偏见问题。罗西认为,这个过程还需要大量的研究和实验,以确保模型在训练阶段能够很大程度上消除偏差。神经符号人工智能和卡尼曼提到的两种人类思维范式将是未来的研究方向。16.RyanCalo:人工智能将为法律带来变革本次论坛的最后一位演讲者是华盛顿大学法学教授RyanCalo。他认为技术很难被监管。我们只能让法律跟随人工智能的变化做出相应的规定,而实施的第一步是评估人工智能对人类生活影响的方方面面以及各个方面的程度,然后让规律灵活调整。人工智能也必然会带来法律的修正。无论是目前公众对人工智能是否“公平”的争论,还是法律界内部的讨论,目的都只有一个,就是确保人工智能技术成本和收益的公平分配,方便人们的生活.同时,防止侵犯个人隐私。结语:AI让世界更美好的初衷在三个小时的论坛即将结束时,主持人Marcus向所有嘉宾提出了一个问题:“AI会去哪里,你们会满意吗?是我们构建人工智能的最终目标吗?”?虽然每位学者的回答角度和内容不同,但三个词反复出现:有趣、友善、公平,而最终的归宿只有一个,那就是用科技让每个人过上更好的生活。或许在这个过程中会出现偏差和起伏:算法会不公平,监管会不完善……但每一位AI研究者依然抱着纯粹的初心,在2020年底的冬夜,隔着远程网线,他们正在谈论人工智能的下一个十年。年。