这几年,AI的趋势有增无减。每年,各大机器学习会议都如火如荼地举行。每个人似乎总是对这个领域充满着强烈的探索欲望。不过,最近机器学习会议发表的各种论文都受到了质疑,同时也受到了很多关注:最近在Reddit上,一位出身于传统工程领域的小哥发了一篇帖子,记录了他在对最近机器学习出版物的观察:“我注意到有很多研究人员在优化、控制、信号处理等“旧”领域的交叉点工作,他们会突然发表大量声明来解决一个问题某些问题。论文。问题本身通常是最近的,有时涉及一些深度神经网络。然而,仔细观察后,这些论文的唯一新颖之处在于问题(通常由其他不相关的小组提出),而不是提出的方法研究人员为了解决这个问题。我很困惑为什么大量看似“弱”的论文可以被接受。然后,小哥发现了这些论文的秘密ngselectedfortheconference:1.Onlypublishmachinelearningconferences这些研究小组只会在机器学习会议上发表文章(不会在优化和控制会议/期刊上发表文章,而这些可能是他们工作的核心)。比如一篇关于对抗性机器学习的论文,整篇论文实际上是在解决一个优化问题,但是优化后的算法基本上只是在之前其他优秀方法的基础上稍作改动。另外,我还注意到,如果一篇论文没有通过NeurIPS或ICLR,他们将直接发送到AAAI和其他一些小型会议,在那里他们将被接受。因此,在这方面,没有浪费任何东西。2.审稿人不知道怎么回事国外小哥通过openreview发现审稿人(不仅仅是researchers)对自己的具体领域一无所知,似乎只评论论文的正确性,而不评论新奇性。事实上,他怀疑审稿人自己是否意识到这种方法的新颖性。这里的新颖性,我指的是一项技术的最新发展有多新,特别是当它与运筹学、优化、控制和信号处理交叉时,而实际上最先进的可能远远超出认知主流机器学习研究人员。3.随意引用通常情况下,研究人员只会引用他们自己或“机器学习人”过去几年的文献。偶尔会引用几百年前柯西、牛顿、傅里叶、古诺、图灵、冯诺依曼等人的话,然后,跳回到几百年前的2018年或2019年。所以,他们可能想表达:“这个问题在1930年被一些‘名人’研究过,然后在2018年被‘某个人’研究过很多次。”4.一堆数学公式通常会有大量的数学公式证明关于特征值,梯度,雅可比矩阵的一些深奥的条件,以及关于他们的研究问题的一些其他奇怪的事情(在其他深奥的假设下)。还会有几个定理,但它们都不适用,因为运行时所有条件都被违反他们高度非凸的深度学习应用。因此,从这些复杂的定理+一堆数学公式中,只剩下“一些微弱的直觉”(但很快就会被违反),什么也没说。5.“废弃的技术”这个国外小哥发现某些技术在作者声称打了很多benchmark之后好像就被抛弃了,再也没有用过,机器学习研究人员好像喜欢经常跳过话题y,所以这可能是其中之一。但是,与其他领域的情况一样,一旦一项技术被提出,同一组研究人员就会花费数年时间完善它,有时甚至贯穿研究人员的整个职业生涯。“在某些方面,这使得机器学习的某些领域就像一个回音室,研究人员在做几乎重复的事情,这些事情被问题的新颖性所掩盖,”小弟弟说。是的。这些论文被接受是因为没有人能发现论文本身的真正新颖性(或者,只有三位审稿人中的一位会注意到)。只觉得机器学习会议正在被当做“论文自动收款的摇钱树”。一石激起千层浪,共鸣层出不穷:要么发表,要么灭亡?帖子似乎引起了大家的共鸣:“这是理论物理学的真实状态(以及当今大多数其他'硬科学'学术研究。出版或灭亡),”一位自称是理论物理学家的网友回答说,这种心态根深蒂固。没有人试图解决实际困难和有意义的问题在他们理智的头脑中。只要在这里调整一个神奇的特征,在那里混合和匹配一些方法,你的简历上就会有一堆出版物。另一个方面是审查过程和方法缺乏透明度比如一些半途而废的评论,让学生给他们评论文章,还有一些政治原因等等,几年发一篇论文,可以实用了,论文解决科学公关的日子已经一去不复返了问题。运气越来越成为一个几乎比努力工作更重要的因素。彼得·希格斯(因提出希格斯玻色子和获得质量的粒子的存在而因其机制获得诺贝尔奖)多次说过,以今天的标准,他永远不会成功。另一位网友曾研究过CNN。他说:“我以前一直在做CNN的应用。但是,后来我们被告知,我们需要添加一些数学公式,因为这有助于在会议上被接受。但是,实际上,这些方程式根本没有任何作用,既没有证明任何新东西,也没有提供额外的见解,只是基本上描述了以矩阵为代表的深度学习。在我花费的其他论文中,我经常看到非常复杂的数学公式,如果你花一个小时来理解它,最终的结果可以描述用一个小行话来说。这很可悲。这让我一开始很沮丧,以为我永远不会擅长数学。事实上,我可能不擅长,但这些论文不是关于数学的。在应用程序中关于数学公式,一位研究气候变化的工学博士也有共鸣:“‘堆砌数学公式’是一个很常见的观点。我们经常被明确告知,我们需要用希腊字母写出各种高难度的数学公式,因为这样可以让论文看起来更好看。“不发表就灭亡”是学术界的一颗残酷的毒瘤。”有网友吐槽各种基于现有模型的modding论文:“Also,slightlybetterSOTA”的论文,除了一些参数调整或添加之外,没有提出任何新的方法或方面给DNN多加了一层,看起来也很累,不过最后还是被会议接受了,一堆堆数学公式的存在,只是为了提供一种严谨和新奇的感觉,掩饰缺乏实际的创新能力。当然,对现有方法进行迭代是正常的,但在机器学习领域,许多论文在没有完全理解所提出的方法为何有效的情况下感觉只是边际改进。“结论确实,大量每年的机器学习会议都会接受大量的论文投稿,而在每年数万篇描述“学术进步”的论文中,又有多少是真正的发现?
