当前位置: 首页 > 科技观察

机器人梦见电子羊:谷歌AI员工离职事件,哪些AI伦理问题可见一斑

时间:2023-03-20 13:48:36 科技观察

2月20日,谷歌EthicalAI(人工智能伦理)团队创始人米切尔在推特上发表简短声明:“我被解雇了”,这与去年发生在另一位女研究员TimnitGebru身上的事情如出一辙,而这两位女性正是谷歌EthicalAI部门的两位前联席主管。去年年底,格布鲁在推特上说她被公司开除了。在她因发表论文与公司高层发生冲突而被要求撤稿后,她在一封内部邮件中表达了对公司种族偏见的不满。被开除。从局外人的角度来看,似乎很难不将米切尔的解雇与格布鲁事件联系起来。推特上的口水战Gebru,谷歌AI伦理部门的联席主管,谷歌内部极少数的黑人女性研究人员之一(根据该公司2020年度多元化报告,谷歌3.7%的员工是黑人),同时,她也是BlackInAI的联合创始人,致力于算法领域黑人的平等权利。而谷歌方面,格布鲁的老板杰夫·迪恩站出来表示“论文不符合发表标准,是那位女士主动以辞职相要挟”。双方各持己见,在推特上大打出手。事件发生后,AI社区大多站在Gebru一边。据BBC报道,来自微软、谷歌等大公司的4500多名研究人员签署了一封支持格布鲁的公开信,要求谷歌进一步解释解雇格布鲁的原因。公司CEO皮查伊带头灭火,承诺将展开进一步调查,为这场轰轰烈烈的闹剧画上句号。今年2月,迪安还为解雇格布鲁以及对其他女员工造成的伤害道歉。谷歌还宣布了一项新的多元化政策,包括将DEI(多元化、公正、包容)目标与副总裁及以上级别员工的绩效评估挂钩。.这似乎是进一步的救火,但米切尔被解雇了。现已被解雇的Mitchell也是一名AI伦理专家,曾致力于机器偏见、种族和性别多样性以及图像捕捉的语言模型,她与Gebru共同领导公司的伦理AI团队。还值得注意的是,她也是spark论文的合著者。在格布鲁被解雇后,米切尔多次在公共平台上表达对谷歌的不满。米切尔在1月份被解雇(这限制了她访问公司内部电子邮件)的几个小时前,在Twitter上抨击谷歌“一直疏远黑人女性”。谷歌对米切尔被解雇的回应是:“在对这位经理的行为进行审查后,我们确认多次违反我们的行为准则和安全政策,包括泄露商业敏感文件和其他员工私人数据。”算法偏差可以追溯到导致Gebru和Mitchell都被解雇的最初的、有争议的论文《随机鹦鹉之险:语言模型会太大吗?(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)》,该论文从环境和成本角度、种族和性别等方面探讨了BERT等大型语言模型的高成本。功耗等风险。同时,格布鲁指出,如果滥用现有数据来训练人工智能,将进一步加深人工智能语言模型中对边缘化群体的偏见。该论文的介绍写道:“我们询问是否已充分考虑与利用这些风险和减轻这些风险的策略相关的潜在风险。”谷歌AI在2017年首先发明了Transformer语言模型,2018年,在此基础上推出的BERT语言模型轰动了人工智能领域,也广泛应用于谷歌搜索引擎的训练,成为谷歌经济收入的重要来源。该论文引发了人们对谷歌目前最赚钱的AI研究的担忧,这并不是第一次出现AI中涉及的道德偏见。当谷歌相册在2015年将两名深色皮肤的人标记为“大猩猩”时,该公司承诺“立即采取行动”以防止错误再次发生。不过为了解决这个问题,谷歌直接从搜索结果中去掉了这个词的标签。《连线》杂志在GooglePhotos上测试了40,000多张动物图片,得出的结论是,Google将不再将任何图片标记为大猩猩、黑猩猩或猴子,甚至是此类动物的图片。今年疫情期间,谷歌AI也出现了类似的情况。非营利研究和倡导组织AIgorithmWatch证实,谷歌旗下的计算机服务GoogleVisionCloud将拿着温度计的深色皮肤人的图像标记为“枪”,而在相同条件下的浅肤色人的图像则标记为“电子设备。””。究其原因,与数据训练时暴力场景中出现的深色皮肤人物图像频率高有关。随后谷歌道歉并更新了算法,温度计图像中不再出现“枪”字样。这种在数据训练中对有色人种的忽视已经成为AI偏见中的常见现象。处于冲突中心的谷歌人工智能伦理问题的根源与人类社会存在的偏见相同。长期以来,硅谷科技公司对外展示了开放、平等的文化。早在2014年,硅谷的33家科技公司就集体签署了多元化承诺。然而,除了算法偏见,近年来,微软、亚马逊、优步等公司频频曝出性别歧视、肤色偏见等道德丑闻,曾经的全球最佳雇主谷歌也难逃一劫。2018年,据《纽约时报》报道,谷歌向因性骚扰传闻而离职的“安卓之父”安迪·鲁宾支付了约9000万美元,并保护了包括鲁宾在内的三名过去被指控有性行为的人10年。行为不端的男性高管。这引发了谷歌员工的强烈抗议。全球20多个办事处的2万多名员工上演了历史性的集体罢工,并走上街头高喊“我们要透明、问责、结构调整”的口号。谷歌后来道歉并承诺撤回对不当行为的强制仲裁。尽管近年来谷歌内部出现了各种与AI相关的伦理讨论,但外界不断批评谷歌在这些领域做得不好。但从另一个角度来看,在AI产业在全球范围内飞速发展的当下,只有谷歌有如此大规模的严肃讨论,恰恰源于谷歌长期以来自由经营、直言不讳的文化。格布鲁辞职后,不仅是EthicalAI团队,整个谷歌公司的气氛都持续紧张。今年,迪恩在饱受批评后就格布鲁事件道歉,并任命另一位黑人女性玛丽安·克罗克(MariianCroak)为EthicalAI的主管,继续向他汇报。EthicalAI最初是为了监督GoogleAI的道德方向而成立的。为此,这个部门也是公司里最多元化的部门,汇集了那些最有可能因为算法偏差而受到伤害的弱势群体。对于一个充满黑匣子和未知数的技术来说,人工智能还有很多值得探讨的问题。谷歌是第一家爆发激烈讨论的公司,但它不会是最后一家。