人工智能给女性求职者低分亚马逊被迫解散研究团队它可以智能化寻找最佳人才的工作。但在专家发现新的招聘引擎不喜欢女性后,亚马逊最终于去年初解散了研究团队。 效率提升推动了对机器学习的需求 自动化是亚马逊在电子商务领域占据主导地位的关键,无论是在仓库内部还是推动定价决策。由于低成本计算能力的普及,机器学习在技术领域越来越受欢迎。亚马逊在智能招聘方面的实验开始于这家全球最大在线零售商的关键时刻。根据监管备案文件,自2015年6月以来,亚马逊的全球员工人数增加了两倍多,超过570,000人。为缓解人力资源部门急剧增加的工作压力,提高工作效率,亚马逊爱丁堡工程中心成立了研发团队,目标是开发人工智能技术,快速抓取网络信息,寻找值得招聘的候选人。 该公司的实验性招聘工具使用人工智能为求职者提供一到五星级的评级,类似于购物者对在亚马逊上销售的产品的评级。研究人员希望招聘软件能够实现“给软件喂100份简历,它会吐出前5名,然后公司可以优先录用他们”的目标。 人工智能招聘软件“SonPreference” 亚马逊的计算机模型经过训练,可以学习过去10年提交给该公司的简历中的模式,识别内在模式并相应地审查申请人。但从2015年开始,亚马逊意识到在评估软件开发和其他技术工作的申请人时,招聘系统并不是性别中立的。因为大多数申请人是男性,这反映了整个科技行业男性主导的现实。 研究团队针对特定的工作职能和职位创建了500个计算机模型。他们教每个模型识别过去候选人简历中出现的大约50,000个术语。这些算法对IT应用程序中常见的技能的重要性不大,例如编写各种计算机代码的能力。相反,该技术偏爱使用男性工程师简历中常见的“执行”和“捕获”等动词来描述自己的求职者。 事实上,亚马逊的系统自学得出男性候选人更受欢迎的结论。该系统对包含“女性”字样的简历进行了处罚,例如“女子国际象棋俱乐部的队长”。该系统还降低了两所全女子学院毕业生的评分。 亚马逊已尝试更新该程序,以使其与术语保持中立。但这并不能保证机器不会通过其他方式对具有潜在歧视性的候选人进行排序。 性别偏见也不是唯一的问题。支持模型判断的数据也存在问题,这意味着不合格的候选人经常被推荐到各种工作岗位。在高管对该项目失去信心后,亚马逊去年年初最终解散了该团队。算法公平之路任重道远 根据人才软件公司“CareerCreator”2017年的一项调查,约55%的美国HR经理表示,未来5年内,人工智能将成为他们工作中的例行公事。 雇主一直梦想着利用技术来扩大他们的招聘网络,减少对招聘人员主观意见的依赖。但亚马逊的失败为越来越多寻求自动化招聘流程的大公司提供了一个教训。 卡内基梅隆大学机器学习专家表示,如何保证算法公平、真正可理解、可解释,还很遥远。 《麻省理工技术评论》在他们对这一事件的报道中指出,我们不能认为人工智能天生就没有偏见。在有偏见的数据上训练系统意味着算法也会变得有偏见。如果这种不公平的AI招聘计划在实施之前没有被发现,它们将长期存在于企业中的多样性问题,而不是解决这些问题。
