近年来,随着公司转向自动评估、数字面试和数据分析来解析简历和筛选候选人,人工智能在招聘过程中的使用有所增加。IT团队致力于更好的多样性、公平性和包容性,事实证明,如果企业在如何实施AI技术方面缺乏战略性和深思熟虑,那么在员工招聘中采用AI弊大于利。IEEE院士、纽约大学Tandon工程学院院长JelenaKova?evi?表示:“AI的偏见往往来自于数据。没有具有广泛代表性的数据集,AI系统很难找到和评估合适的候选人。”人工智能招聘面临的主要问题是,在美国多年来一直由男性和白人工人主导的行业领域,人工智能招聘系统所依据的历史数据最终会存在固有的偏见。如果没有用于训练AI算法的更广泛的数据集,AI招聘工具可能会带有自1980年代以来技术招聘中存在的相同偏见。但专家表示,有效使用人工智能有助于打造更高效、更公平的招聘流程。人工智能存在偏见的危险由于人工智能算法通常是根据过去的数据进行训练,因此人工智能的偏见一直是一个难以解决的问题。在数据科学中,偏差被定义为由于学习算法中的错误假设而导致的错误。如果你在不能反映当前情况的数据上训练算法,你会得到错误的结果。因此,在招聘方面,尤其是在IT等行业,根据历史招聘数据训练算法可能是一个重大错误。美国电子隐私信息中心的人工智能和人权研究员本·温特斯说:“很难确保一个人工智能软件没有天生的偏见或偏见。虽然可以采取措施避免这种情况,许多系统已被证明是基于种族和残疾的偏见影响。”Kova?evi?说,如果一家公司的数据集没有显着多样化,人工智能算法就不可能知道来自代表性不足的群体的人过去的表现。相反,它的算法将偏向于数据集所代表的内容,并比较所有潜在的求职者到他们的原型。她说,“例如,如果黑人过去被排除在系统之外,如果女性过去没有参与,并且你基于此创建算法,你无法预测未来正确。如果你只从“常春藤盟校”招人,那你真的不知道从哪里来。鲜为人知的学校的申请者会如何表现,因此会出现多种偏见。BMCSoftware企业社会责任、多元化、公平和包容性负责人WendyRentschler敏锐地意识到人工智能可能对招聘过程产生的潜在负面影响。以失败为例:公司不得不中止项目,因为算法歧视女性求职者。Rentschler说:“如果最大和最伟大的软件开发商都做不到这一点,我将向所有HR技术人员提出索赔。”怀疑能否做到这一点。“虽然一些人工智能招聘软件的开发者吹捧他们的软件提供了强大的功能,但它是否能帮助找到合适的求职者还有待观察。人工智能技术可以帮助企业简化招聘流程,找到合格的求职者,这些求职者使用人工智能来识别合格的候选人。”求职者的新方法,但重要的是不要被这些软件开发人员的炒作所蒙蔽。如果您正试图提高业务的包容性,人工智能可能看起来像是一种快速修复或灵丹妙药,但如果您在流程中使用人工智能不是战略性的,它可能会适得其反。关键是公司要确保他们的招聘流程和他们使用的工具不会排除传统上代表性不足的群体。可以合乎道德地使用人工智能,而不是成为这些工具夸大功能的牺牲品。美国民主与技术中心员工隐私问题高级政策顾问马修谢勒指出,由于企业人力资源部门不产生收入,往往被贴上支出部门的标签。因此,企业领导者有时急于引入有助于削减成本的自动化。然而,这种愿望可能会导致忽视他们所使用软件的潜在负面影响。Scherer还指出,人工智能招聘软件公司提出的许多说法甚至并非完全错误,而且经常被夸大,他说,“特别是声称可以分析人们的面部表情、语调、任何性格衡量标准的工具,当这样的工具是真的是一个万能的工具。在视频面试中,声称可以评估语气、表情和候选人性格的工具可以评估候选人在文化上的“正常”程度,最终可能会排除有残疾的候选人或任何不符合算法的人。工具它还使残疾求职者处于尴尬的境地,他们必须在面试前决定是否披露他们的残疾。残疾求职者可能担心如果他们不披露,他们将无法胜任这份工作,因此不愿意在流程的早期披露残疾事实,或者根本不披露。正如Rentschler指出的那样,黑人和有色人种(BIPOC)、女性和残疾候选人通常习惯于“语码转换”面试——这些未被充分代表的群体在说话、看或行为模式上进行某些调整的做法,在这种情况下人工智能系统可能会意识到这一点,并错误地将其行为识别为不真实或不诚实,从而拒绝潜在的优秀求职者。Scherer将这种歧视分为两类:具有不同影响的无意歧视;故意歧视和区别对待。因此,如果不明确偏袒特定群体的候选人,就很难设计出一种避免不同影响的工具,这将构成法律规定的不同待遇。AI招聘法规AI是一项相对较新的技术,在涉及隐私和贸易惯例的立法、政策和法律方面缺乏监管。Winters提到EPIC在2019年向FTC提出的投诉,指控HireVue在其招聘软件中使用了与面部识别相关的欺骗性商业行为。HireVue声称提供的软件可以跟踪和分析候选人的言语和面部动作,从而能够分析适合度、情商、沟通技巧、认知能力、解决问题的能力等等。HireVue最终撤回了其面部识别声明以及在其软件中对该技术的使用。但温特斯指出,有类似的技术可以衡量主观行为属性并将其与组织契合度相匹配,或者使用人工智能在互联网上搜索有关申请人陈述的公开信息,然后分析它们以寻找潜在的危险信号或匹配项。在分析候选人的视频面试、评估、简历、LinkedIn个人资料或其他公共社交媒体个人资料时,人工智能可以收集到有关候选人的数据量也令人担忧。通常情况下,求职者甚至可能不知道在面试过程中他们正在被AI工具分析,而且几乎没有关于如何管理这些数据的规则。温特斯说,“总的来说,目前对人工智能招聘工具的监管很少。美国已经出台了一些州或地方法案。然而,其中许多法案存在重大漏洞。人工智能技术的应用应受到高度规范。透明度。因此需要控制这些工具的应用,严格限制数据收集、使用和保留,以及免费发布独立的第三方测试。”在招聘中负责任地使用人工智能Rentschler和她的团队专注于寻找人工智能技术的用途,以帮助企业对人力资本采取更具战略性的方法。他们已经实施了一些工具,可以使用基于技能的评估快速筛选候选人,以了解他们申请的职位并安排面试以与招聘人员联系。BMCSoftware还使用AI来识别其职位描述中有问题的语言,确保它们对每个候选人都是中立和包容的。BMC还使用该软件在入职流程中将新员工与他们的福利和内部组织信息联系起来。Rentschler的目标是找到实施人工智能和自动化的方法,以帮助其团队中的人员更高效地完成工作,而不是取代他们。虽然人工智能算法可能会引入基于历史招聘数据的固有偏见,但避免这种情况的一种方法是更多地关注基于技能的招聘。Rentschler的团队仅使用AI工具来识别具有特定技能的候选人,他们希望将这些候选人添加到他们的员工队伍中,而忽略了其他标识符,例如教育、性别、姓名和其他可能在历史上排除了潜在识别信息过程的候选人。Rentschler说,在这样做的过程中,BMCSoftware聘请了背景出人意料的候选人,其中包括一名叙利亚难民,他最初是一名牙医,但也有一些编码经验。由于该系统只专注于寻找具有编码技能的候选人,这位前牙医通过了筛选并被公司录用。采用的其他道德策略包括建立制衡机制。Scherer说,一家公司设计了一种工具,可以将潜在候选人的简历发送给招聘人员,招聘人员随后会审查他们的简历,并决定他们是否适合这份工作。即使该招聘人员拒绝了简历,候选人的简历也会通过算法再次发送给其他招聘人员。如果它被标记为一个很好的潜在候选人,它会被发送给另一个不知道它已经被其他人审查过的招聘人员。这确保了简历由人工审查,他们不会仅仅依靠人工智能系统来识别合格的候选人,也确保合格的候选人不会被招聘人员忽视。“重要的是人类要保留判断力,而不仅仅是依赖机器,”Scherer说。“这就是很难训练的地方,因为招聘人员最容易做的事情就是,‘如果公司要我使用这个工具,我就会按照机器告诉我的去做。”
