当前位置: 首页 > 科技观察

谷歌解雇伦理学家三个月后,人工智能伦理研究会议暂停谷歌赞助

时间:2023-03-20 21:43:56 科技观察

BigDataDigest博伊西州立大学助理教授MichaelEkstrand今天证实,该会议已决定终止与谷歌的赞助。人工智能伦理研究会议组织者的决定是在谷歌解雇人工智能伦理负责人玛格丽特米切尔和人工智能伦理联合负责人TimnitGebru三个月后的一个多星期后做出的。谷歌随后重组了10个团队的约100名工程师,包括让谷歌副总裁MarianCroak领导EthicalAI。“FAccT以战略计划为指导,并与执行委员会合作,赞助主席负责制定符合该计划的赞助组合,”Ekstrand在一封电子邮件中告诉VentureBeat。“执行委员会已经决定,谷歌赞助2021年会议不符合社区的最佳利益,并且会阻碍战略计划。我们将修改明年会议的赞助政策。”该决定是与谷歌解雇EthicalAI团队有关的该消息于周五首次公布。FAccT项目委员会成员SureshVenkatasubramanian在推特上表示,该组织正在暂停与谷歌的关系。停止谷歌的赞助并不意味着科技巨头的赞助终止,甚至谷歌本身的赞助也将终止。FAccT会议的另一赞助商、谷歌公司DeepMind在今年1月引发了AI伦理方面的争议。自2018年成立以来,FAccT一直在寻求谷歌和微软等大型科技公司、福特基金会和麦克阿瑟基金会的资助。去年发布的一份报告将科技巨头资助AI伦理研究的历史与大型烟草公司资助健康研究的历史进行了比较,发现四所著名大学近60%的研究人员获得了大型科技公司的资助。Gebru被解雇后,谷歌员工抗议他们所谓的“前所未有的研究审查制度”。上周,路透社报道了另一起涉嫌干扰该公司AI研究的事件,一篇研究论文的合著者引用了谷歌法律团队中一位“非常阴险”的编辑的话。根据FAccT网站,该组织的联合创始人Gebru仍然是数据和算法评估咨询小组的成员,并担任该项目委员会的主席。Mitchell是会议的项目联合主席,也是FAccT项目委员会的成员。Gebru于2020年12月被谷歌解雇,原因是科技公司缺乏多样性以及发表与他人合着的论文《论随机鹦鹉的危险:语言模型会变得太大吗?》等因素引起的争议。除了认识到预训练语言模型可能对边缘化社区造成不成比例的伤害外,该论文还质疑进展是否真的可以通过基准表现来衡量。该论文还提出了对大型语言模型的潜在滥用或自动化偏见的担忧。这篇文章讲的是“如果一个拥有数千亿参数的大型语言模型,在一个非常大的数据集上训练,能够很好地操纵语言的形式,足以通过需要理解语言的测试,我们是否学到了如何构造宝贵的语言知识,还是我们被带到了花园小径上?”。Gebru被列为该论文的两位主要作者之一,该论文本周被FAccT接受发表。她的主要合著者是华盛顿大学的语言学家EmilyBender。去年夏天,Emily关于大型语言模型的潜在缺陷和更深入批判的必要性的文章获得了计算语言学协会颁发的奖项。VentureBeat去年从熟悉情况的消息来源获得的一份论文副本将Mitchell、谷歌研究人员MarkDiaz和BenHutchinson列为共同作者,三人都有语言分析和模型方面的背景。尽管Mitchell今天最著名的是她在AI伦理方面的工作,但她也是计算机视觉和自然语言处理研究人员中备受推崇的人物,并且是2008年华盛顿大学文本生成硕士论文的作者。BenHutchinson与Google的EthicalAI团队的合著者合作发表了一篇论文。该论文表明,NLP模型中的偏见在情感分析和毒性预测方面对残疾人不利。马克·迪亚兹(MarkDiaz)检查文本中与年龄相关的偏见。Bender和Gebru在本文的多个版本中被列为主要合著者。华盛顿大学在会议召开前发表的另一版论文也将“ShmargaretScmitchell”列为作者。Gebru是一位杰出的算法压迫研究人员,也是谷歌AI研究人员中仅有的黑人女性之一。Gebru的解雇引发了数千名谷歌员工的抗议,并指责其存在种族主义和报复行为。该事件还引发了对监管算法有浓厚兴趣的国会议员的提问。这也让研究人员质疑从谷歌那里接受伦理研究资助的伦理问题。人工智能、伦理和法律专家告诉VentureBeat,Gebru的解雇可能会导致一些政策变化,包括支持更严格的举报人法律。在被解雇后不久,Gebru谈到了联合会的想法,以此作为保护AI研究人员的一种手段,而Mitchell是2021年1月成立的Alphabet工人工会的一员。OpenAI、斯坦福大学的研究人员和专家上个月联合警告说,像谷歌和OpenAI这样的大型语言模型在开始分发副本之前只有短短几个月的时间来设定他们的道德标准。今年在FAccT上发表的其他论文包括对非洲国家数据共享实践的常见障碍的分析,对Data&Society的AIonGround团队的算法影响评估的审查,以及对政府镇压和审查制度如何影响使用频率的审查。训练NLP模型输入数据的文本研究。在最近的其他人工智能研究会议活动中,最受欢迎的年度机器学习会议NeurIPS的组织者告诉VentureBeat,该组织计划修改其围绕NeurIPS赞助商华为为中国当局制作维吾尔穆斯林检测系统的问题的赞助。政策。相关报道:https://venturebeat.com/2021/03/02/ai-ethics-research-conference-suspends-google-sponsorship/Digest(id:BigDataDigest)》]点此查看作者更多好文