当前位置: 首页 > 科技观察

深度学习先驱Yann LeCun被骂退推特:你们都很懂,从此我不说话了

时间:2023-03-16 22:15:25 科技观察

深度学习先驱YannLeCun在推特上被骂:你们都懂,我以后不说了,会退出推特。“我要求社交网络上的每个人停止互相攻击,尤其是对TimnitGebru的攻击,以及对我之前的一些言论的攻击。”YannLeCun刚刚在推特上发出了这样的呼吁。“无论是口头上的还是其他方面的冲突,只会造成伤害,得到适得其反的结果。我反对一切形式的歧视,这里有一篇文章是关于我的核心价值观的。”“这是我在Twitter上的最后一条推文。再见,大家。”看来,2018年图灵奖获得者、人工智能领军人物YannLeCun决心为这场长达两周的辩论画上句号,而引发这场风波的正是被指“严重种族歧视”的PULSE算法。这项工作由杜克大学发起,其人工智能算法可以秒级清除模糊的照片,效果非常好。这项研究的论文已经发表在CVPR2020(论文《PULSE:Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models》)。PULSE在CVPR会议期间受到关注,这反过来又在人工智能界引发了广泛的争议。首先,生成的图像更清晰、更细腻:PULSE可以在几秒钟内将16×16像素的图像提升到1024×1024分辨率,提升幅度高达4096倍。目前,该算法只对人脸照片起作用,算法生成的照片足够清晰,可以显示脸上的毛孔、皱纹甚至一根头发。但本质上,PULSE并不是消除马赛克,而是“生成”一张脸t帽子看起来很真实,但并不存在。超分辨率算法一直是计算机科学领域的研究热点。过去,科学家提出的复原方法是在低分辨率图像上添加像素。不过PULSE利用了GAN的思想,先用深度学习算法生成一些高清图片,然后降低它们的分辨率,与模糊的原图进行对比,找出高清图片与最高的匹配度和最接近原始图像,然后输出它们。这就是问题所在。有网友试用PULSE后发现,美国前总统奥巴马的高模糊照片被解码生成了一张“白脸”。项目作者也给出了回应,称这种偏差很可能来自于StyleGAN训练数据集,也可能有其他未知因素。“我们意识到偏差是机器学习和计算机视觉中的一个重要问题,并就此问题联系了StyleGAN和FFHQ数据集的创建者。我们希望这将导致没有这种偏差的方法的诞生行为。”但这还不是全部,鉴于目前美国BLM舆论的风气,人们很快开始深入讨论机器学习研究成果缺乏多样性的问题。其中,种族偏见和性别偏见的问题一直存在,但至今没有人给出很好的解决方案。这时,YannLeCun发了一条推文,解释了为什么PULSE会有这样的偏见。“机器学习系统的偏差是由于数据的偏差。这个人脸采样系统的结果偏向于白人,因为神经网络是在FlickFaceHQ上预训练的,大部分图片基本都是白人的图片人,”YannLeCun说。“如果这个系统用塞内加尔的数据集来训练,那么所有的结果肯定看起来像非洲人。”YannLeCun的说法并没有错,但可能是因为过于直白,一下子让一大批AI从业者和研究人员炸开了锅。LeCun希望引起人们对数据集偏差的关注,但推特网友并不买账,指责他“用这个老理由掩盖问题的本质”。之后,YannLeCun多次发推解释自己对偏见的立场,但似乎无济于事。“与学术论文相比,部署产品中这种偏见的后果将更加可怕。”这句话的意思被解读为“这个特例不用太担心”,引起了很多同行的质疑。斯坦福人工智能实验室成员、谷歌人工智能科学家、非裔美国人蒂姆尼特·格布鲁对LeCun的言论表示“失望”。YannLeCun甚至在TimnitGebru的推特评论区写了17条回复:当然,需要讨论的不仅仅是机器学习中的偏见:“同样需要避免的是对话中的恶意,它只会激起情绪,伤害每个人,掩盖了真正的问题,并延迟了解决方案。”在数据科学领域深耕十余年的LucaMassaron认为,虽然YannLeCun从技术角度来看是完全正确的,但看看这个观点被抛出后公众的反应,就知道有多敏感了是谈论它。“人们总是害怕他们会受到不公平规则的控制,然后就会无条件地、有时甚至是不合理地担心人工智能会剥夺人们的自由,而不仅仅是工作,”LucaMassaron说。“我个人并不担心像FaceDepixelizer这样的研究,我担心的是应用之后,我们将无法识别和挑战偏见。”在越来越多的机器学习自动化技术进入我们生活的今天,立法者在这里扮演的角色非常重要。在欧盟国家,为保证数据使用的透明性和问责性,GDPR法规要求互联网公司保证算法的可解释性和用户对自己数据的控制权。如果我们想让人工智能朝着正确的方向前进,或许我们需要追求的不是公正,而是透明。Luca认为,如果算法存在偏差,我们可以挑战其推论并解决问题。但如果算法的推理机制是不可知的,或许其中还隐藏着更大的问题。不可否认,人类社会存在着各种各样的偏见,但有理由认为机器更倾向于“大众化”的答案,这未必是正确的观点。很多人对PULSE和LeCun的攻击的讨论都偏离了LeCun的初衷。引起争议的杜克大学的研究人员在PULSE网站上表示,他们将解决偏见问题。当前论文中添加了一个新部分,其中包含解决偏见的其他模型卡。为了实现无偏见的目标,我们必须让整个AI社区参与进来。但在关于技术的讨论中,让科技巨头望而却步的是一个大多数人不愿看到的结果。YannLeCun向来以直言不讳着称。他经常在社交网络上评论流行的深度学习研究,也会面临其他著名人工智能研究人员的批评。机器学习模型中的偏见可能会危及推理的专业性,从而导致未被注意到的巨大业务影响。我们没有一劳永逸地解决这个问题的方法。