当前位置: 首页 > 科技赋能

人工智能给女性求职者打低分,亚马逊被迫解散研究团队

时间:2024-05-22 16:00:44 科技赋能

自2016年以来,亚马逊美国机器学习团队一直在秘密开发并使用计算机程序来审查求职者的简历,希望更智能地寻找顶尖人才。

但在专家发现新的招聘引擎不喜欢女性后,亚马逊最终于去年初解散了该研究团队。

对效率的需求推动了机器学习应用程序无论是在仓库内部还是在推动定价决策方面,自动化都是亚马逊电子商务主导地位的关键。

由于低成本计算能力的激增,机器学习在技术中变得越来越流行。

亚马逊的智能招聘实验是在这家全球最大在线零售商的关键时刻开始的。

监管文件显示,自 6 月份以来,亚马逊的全球员工数量增加了两倍多,达到 57 万人以上。

为了缓解人力资源部门急剧增加的工作压力,提高其工作效率,亚马逊爱丁堡工程中心成立了研发团队,目标是开发人工智能技术,快速抓取网络信息,发现值得招聘的候选人。

该公司的实验性招聘工具使用人工智能为求职者提供一到五星级的评分,类似于购物者对亚马逊销售的产品的评分。

研究人员希望这款招聘软件能够实现“将简历输入软件,它会吐出前五名,然后公司可以优先录用”的目标。

人工智能招聘软件“青睐男生” 经过训练,亚马逊的计算机模型研究了过去10年提交给该公司的简历,发现内在模式,并据此对求职者进行审核。

但从今年开始,亚马逊在评估软件开发和其他技术职位的申请人时意识到,招聘系统并不是性别中立的。

由于大多数申请者都是男性,这反映了整个科技行业男性主导的现实。

研究团队创建了专注于特定工作职能和职位的计算机模型。

他们训练每个模型识别过去候选人简历中出现的大约 50,000 个术语。

这些算法对于 IT 应用中常见的技能(例如编写各种计算机代码的能力等)意义不大。

相反,该技术更青睐那些用男性工程师常见的“执行”和“捕获”等动词来描述自己的候选人继续。

事实上,亚马逊的系统自学得出结论,男性候选人更可取。

该系统会对包含“女性”一词的简历进行处罚,例如“女子国际象棋俱乐部队长”。

该系统还降低了两所女子大学毕业生的等级。

亚马逊试图更新该计划,以使其在某些条款上保持中立。

但这并不能保证机器不会根据其他可能具有歧视性的方式对候选人进行分类。

性别偏见也不是唯一的问题。

支持模型判断的数据也存在问题,这意味着不合格的候选人经常被推荐到各种工作岗位。

由于高管对该项目失去信心,亚马逊最终于去年初解散了该团队。

根据人才软件公司 Career Maker 2018 年的一项调查,算法公平之路还有很长的路要走。

约55%的美国人力资源经理表示,未来五年人工智能将成为他们工作的常规部分。

雇主长期以来一直梦想着利用技术来扩大招聘网络并减少对招聘人员主观意见的依赖。

但亚马逊的失败为越来越多寻求自动化招聘流程的大公司提供了教训。

卡内基梅隆大学的机器学习专家表示,确保算法公平、真正可理解和可解释的道路还很遥远。

《麻省理工技术评论》在报道这一事件时,有人指出,我们不能将人工智能视为本质上公正的。

使用有偏差的数据训练系统意味着算法也会有偏差。

如果像这样不公平的人工智能招聘计划在实施之前未被发现,它们将使商业中长期存在的多样性问题长期存在,而不是得到解决。