当前位置: 首页 > 科技观察

今年机器学习研究最火的是谁?几何深度学习最大赢家,Reddit争吵

时间:2023-03-14 20:53:38 科技观察

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。今年机器学习的研究热点会是什么?近日,有网友在Reddit上开了这样一张盘,顿时引起了大批MLers的关注。有人点名self-supervisedmodels,有人认为representationlearning越来越受到重视,有人认为基于物理的机器学习是未来的方向……不过,从评论中最高点赞数来看区,上述方向都不是“赢家”。到目前为止,最受好评的选手是——几何深度学习。这项技术之所以进入公众视野,是因为Twitter首席科学家兼图机器学习大师迈克尔·布朗斯坦(MichaelBronstein)去年发表的一篇论文。(对了,那篇论文有160页)那么问题来了:Top的人气从何而来?GeometricDeepLearning的全称是GeometricDeepLearning,最早由MichaelBronstein在2016年的一篇论文中提出。简单来说,这是从对称性和不变性的角度,对CNN、GNN、LSTM、Transformer等典型架构进行几何统一的尝试。在高赞的评论下面,有人用一个简单的例子来解释这种“对称性”:传统网络认为“E”和“3”是不同的,但具有镜像对称(或π键旋转)的网络会认为它们是一致的。CNN就是这种情况,当不变性变得可平移(或可变换)时,右上角的3和中间的3当然是相同的。我们希望将CNN的这一特性“推”到其他架构中。这就是对称性带来的稳定性,因为从视觉上看,很多物体其实是同一个物体,会产生“这是同一个物体,只是翻转了一下”的三维几何相似度,所以很多问题都可以基于对称性来解决解决了。而传统的卷积网络使用更多的数据增强,例如旋转、平移和翻转,来弥补这一目的。因此,几何深度学习希望几何学中“不变群”概念的范围更广,使网络除了常规的旋转和平移对称操作外,还可以包含“不变”操作。例如,在一段视频中,有两辆车相向行驶,无论速度如何,是否有遮挡,视频的语义都是两车相向行驶。总的来说,几何深度学习不仅可以让卷积网络更稳定,也可以更好地面对复杂度爆炸的拟合函数。其他热门提名除了几何深度学习的大热之外,还有很多耳熟能详的方法也进入了“提名”。比如自监督学习,就是评论区提到频率最高的“民推之子”。监督学习是目前机器学习领域的主流方法,而自监督学习作为一种新的学习方法,以输入数据本身作为监督信号,从未标记的数据中学习信息表示,有利于几乎所有不同下游任务的类型。.在图像分类、语言翻译等众多CV和NLP领域随处可见,LeCun一直推崇这个研究方向。△LeCun2018年的演讲也表明表示学习和可解释性越来越受到关注。他首先解释说,他提名表示学习是因为理论深度学习领域似乎正在经历从“规范”问题(例如深度和宽度、逼近理论、动力学)到更抽象的问题:什么是好的表示?表示的哪些属性很重要?如何从数学上定义这个概念?我们如何执行它们?可解释性也与表示学习有些相关:如果一个人能够理解什么构成了一个好的表示,并且可以对其施加属性,那么它就更具可解释性。还有提名检索,迁移学习应用于强化学习,多模态,以及大规模语言模型上的偏好学习:“检索”是指从外部数据集中检索信息,就像最近的deepmind这个实验一样。博主还提到,检索也可以用来补救长尾问题。有意思的是,评论区一个提名“量子机器学习”的人引来了一位物理人,他诚恳地问AI人:这个东西真的有用吗,还是只是一门科学?事实上,在2017年,图灵奖获得者姚期智曾在一次演讲中表示,“如果我们能够将量子计算和AI结合在一起,我们可能会做出连大自然都想不到的事情。”这是量子计算和人工智能的结合。机器学习这一跨学科技术领域,借助量子特性,开发高性能的量子机器学习算法,从而加速或拓宽人工智能的应用场景。不过目前还没有大范围的应用,所以楼主小心翼翼的回复:不知道,不过很多人说这是机器学习的最新趋势。。。在评论区,我们都耳熟能详扩散模型、联合学习和差分算法,也提到了元学习。到今年年底,我们可以再次挖坟,看看是否真的有提名和获奖者。