人工智能(AI)和机器学习(ML)带来的好处已经很明确。该技术可以帮助企业实现流程自动化,通过数据分析获得洞察力,并与客户和员工建立联系。它帮助他们满足不断变化的市场需求,降低运营成本,并在当今快节奏的数字世界中保持竞争力。将AI应用于HR如今,许多主要的云服务提供商已经在其服务包中提供了AI功能,为可能难以负担昂贵的AI工程师和数据科学家的企业实现了技术民主化。对于人力资源团队来说,人工智能的价值是显而易见的。一个职位发布可能会吸引数百名求职者,人工审核每份简历通常是一项艰巨且耗时的工作。通过利用人工智能和机器学习技术,人力资源团队获得了大规模评估候选人的能力,并大大提高了招聘推荐的效率。人工智能引起的偏见对人力资源的影响虽然人工智能为人力资源业务或部门带来了相当明显的好处,但它也带来了相当严峻的挑战和潜在的陷阱。对于任何人工智能系统,你必须正面解决的最困难(但最关键)的问题之一是确保它没有偏见。这对于人力资源领域的AI系统尤为重要,因为任何由AI引起的偏见都可能导致公司错失合格的求职者——通常是在无人知晓的情况下。还记得几年前,亚马逊(Amazon)因为性别歧视不得不取消用于筛选简历的人工智能系统吗?(深度阅读:几个著名的人工智能“翻车”)完美的例子——尽管是不幸的否定。当时,亚马逊的大部分员工都是男性,因此为人工智能系统提供数据的算法根据公司自己的数据进行训练,最终将应用程序与男性词汇联系起来。在这样做的过程中,合格的女性候选人被该模型完全忽略了。因此,如果用于训练AI模型的数据存在偏差,那么部署的AI系统也会存在偏差。它将无限期地继续强化这种偏见。人工智能系统,无论是外包还是内部构建,都需要更加关注偏见问题。在亚马逊的案例中,用于筛选简历的AI系统是内部构建的,并使用公司自己的求职者数据进行训练。.但大多数公司没有资源为其人力资源部门构建内部人工智能系统。因此,越来越多的人力资源团队将他们的工作外包给Workday或GoogleCloud等供应商。现在比以往任何时候都更需要人力资源团队承认外包任何人工智能所带来的巨大责任。不要只是盲目接受和实施你的AI供应商的模型。您和您的团队需要反复审查系统,以确保它们没有偏见。您需要不断地问自己:使用了哪些数据源(或数据源组合)来训练模型?该模型使用了哪些特定因素来做出决策?结果令人满意,还是有什么问题?系统是否需要暂时关闭重新评估?仔细审查训练数据很重要,尤其是在外包AI系统中。但这并不是减少来自有偏见的工作环境的有偏见数据的唯一方法。因此,您的人力资源团队也有责任评估公司内部的偏见或不公平问题。例如,男性在公司中的权力是否大于女性?哪些有问题的行为长期以来被认为是可以接受的?数据是否来自代表性不足的群体?在整合AI时,它是绝对相关的,因为它推动了AI系统和结果的部署。请记住,人工智能并不知道它有偏见。这取决于我们。公平且无偏见地利用人工智能的三个最佳实践最终,人力资源团队需要了解他们的人工智能系统可以做什么和不能做什么。现在,您的HR团队不必是技术专家或了解驱动AI模型的算法。但他们确实需要知道培训数据中反映了什么样的偏见,偏见是如何融入公司文化的,以及人工智能系统如何使这些偏见长期存在。以下是三个战略最佳实践,可以帮助您的人力资源团队以公平公正的方式利用人工智能技术。定期审核AI系统。无论您的系统是内部构建的还是外包给供应商的,都要定期检查收集的数据以训练模型和产生的结果。数据集是否足够大和多样化?它是否包括有关受保护群体的信息,包括种族和性别?如果结果不理想,请不要犹豫,关闭系统并重定向。了解数据供应链。当依赖外包的现成人工智能系统时,要认识到训练数据可能反映了供应商自身的偏见或第三方数据集中的偏见。还需要进行例行检查和定期审核。使用AI来增强而不是替代。人工智能的能力正在飞速发展,但现实是人工智能仍然需要管理。由于涉及风险,人力资源团队应该利用人工智能来增强他们的作用,而不是置之不理。最终的招聘和人力资源决策仍然需要由人来做出。人力资源团队处于以公平和公正的方式利用人工智能技术的独特位置,因为他们已经精通偏见和不公平的系统性问题。认识到人工智能系统需要的责任,并始终努力了解它们是如何训练和产生结果的。如果操作得当,人工智能将帮助您的人力资源团队发现偏见并及时纠正,从而提高人力资源职责的效率和效力,并选择值得推荐的求职者和有价值的员工,让他们的职业生涯顺利进行。
