当前位置: 首页 > 科技观察

招聘中的人工智能?会有偏见!三大优秀实践助你轻松搞定!

时间:2023-03-22 16:14:23 科技观察

翻译|崔浩评论|孙淑娟尽管人工智能发展迅速,但我们还没有体验到人工智能(AI)的全方位及其能力。毕竟,人工智能影响的范围和前景仍然主导着研究工作,科学家们仍然热衷于从人工智能创新中寻找新的用例。到目前为止,我们已经遇到了人工智能在各种情况下的应用。这是因为我们光顾的许多公司都增加了对人工智能技术的使用。示例包括Siri,这是一种交互式个人助理,它使Apple的客户能够跨应用程序获取信息、口述电子邮件以及使用iOS手机、智能手表、计算机和电视执行任务。许多品牌还利用聊天机器人提供无可挑剔的客户体验,不仅可以促进销售,还可以消除重复性任务,从而提高员工敬业度。就在人工智能工具的采用率不断上升的同时,其企业的投资也在飙升。根据麦肯锡2022年人工智能状况报告,52%的受访者确认他们超过5%的数字预算用于人工智能。2018年,这一比例为40%。巨大的推动力在人力资源方面,人工智能可以帮助企业提高员工对当前角色的满意度,并帮助他们快速完成任务,节省时间和金钱,这两个不可或缺的因素。除其他外,企业可以通过使用人工智能软件筛选数千份申请并缩小少数有经验的候选人的范围来优化招聘。然而,也有系统偏袒某一特定群体或性别的情况。这是一个危险的趋势,如果任其发展,可能会严重损害公司形象并抵消这项技术的优势。为了帮助您有效应对AI处理中的“偏差”,本文提供了一些指导。招聘中的人工智能:你需要知道的以前,人们在报纸分类中查找工作并用手写的信件回复。如今,任何人都可以通过互联网上的大量渠道获取工作信息。招聘是公司的首要任务。这解释了越来越多地使用人才招聘机构的原因。使用人工智能不仅简化了这个过程,还扩展了领域自动化的可能性。根据Tidio对人工智能对招聘影响的调查,近67%的人力资源专业人士承认创新对招聘阶段产生了积极影响。但“偏见”是怎么突然来的呢?2014年,电商巨头亚马逊选择将人工智能纳入其招聘系统。虽然这在很大程度上被视为朝着正确方向迈出的一步,但由于亚马逊是自动化的坚定拥护者,当某种现象发生时,之前的努力就付诸东流了。招聘系统偏向于男性候选人而不是女性候选人。为什么会这样?路透社的一份报告显示,“......亚马逊的计算机模型经过训练,可以通过查看10年来提交给公司的简历中的模式来审查申请人。大多数是男性,这反映了整个科技行业。男性占主导地位。”AI中的偏见可以通过多种方式表现出来,例如某些性别、群体、宗教和其他信仰等。在招聘中减轻AI偏见的三个最佳实践虽然可能无法完全消除AI模型中的偏见,但有是可以减少偏差事件发生机会的策略。这里有三种必备方法。1.让人类知情虽然人们越来越担心智能工具将取代人类工人,但我们应该将其视为一种伙伴关系,而不是彻底的接管.此外,人工智能主导的工具应该在没有人类监督的情况下运行的概念,因为它们已经证明是非常有效的,也需要修改。有趣的是,人机协作已被证明更有价值。《哈佛商业评论》的一项研究发现12个行业的1,075家公司提高了速度、节省了成本并增加了利润。鉴于这一事实,公司应确保有一个人力团队持续监督招聘中使用的软件。他们c减少偏袒的风险。此外,员工应该从多元化的人才库中挑选人才,让每个群体都有代表,从而减少歧视。2.对人工智能模型进行定期审计未能定期检查人工智能算法的概率结果可能会对公司的反偏见工作造成严重打击。通过组织对算法的定期审查,公司可以发现阻碍模型提供公平结果的问题。不完整或不准确的数据一经发现应立即更正。3.光顾??AI招聘软件供应商和仇恨偏见就像汽车经销商一样,您会发现各种招聘软件选项。为了做出正确的决定,努力了解供应商的机制如何解决各种偏见。您应该要求系统在各种情况下进行测试并观察它们的行为。除了偏见,检查软件的可扩展性、价格和成本节约。一个好的供应商是满足所有或大部分标准的供应商。对人工智能未来的看法人工智能的发展对我们所有人来说都是一件好事。从使汽车能够自动驾驶和停车(在司机的主动监督下)到在更短的时间内找到并雇用合格的候选人,人工智能在招聘方面显示出优势。然而,我们应该有目的地管理人工智能技术,以避免与人类努力相关的错误。译者介绍崔浩,社区编辑,资深架构师。他拥有18年的软件开发和架构经验,以及10年的分布式架构经验。原标题:TacklingAIBiasinRecruitment的三个最佳实践,作者:MichaelAkuchie