当前位置: 首页 > 科技观察

解决AI偏差问题的重要步骤

时间:2023-03-20 14:08:45 科技观察

偏差是机器学习中必须解决或减轻的一个主要问题。企业需要采取重要措施来帮助减轻未来的压力。无论人们认为自己的文化、社会或环境意识如何,偏见通常是每个人的先天特征。人们自然会被证实他们信念的事实所吸引。例如,大多数人认为年轻人比年长的同事更好地执行某些任务,反之亦然。大量研究表明,长相好看的求职者比长相一般的求职者更有可能被录用。清单还在继续。作为人类,我们不能自信地说我们的决定是公正的。这个问题的根本原因是偏见在不知不觉中滋生和蔓延,让人无法判断自己做出的决定是否有偏见。这就是为什么有偏见的AI算法的概念不足为奇,因为AI系统的全部意义在于复制人类的决策模式。为了构建一个功能性的AI系统,开发人员使用大量解决特定问题的实例对其进行训练。例如,为了构建一个可以帮助对工作申请进行分类的人工智能系统,开发工程师会向算法展示许多被录用和被拒绝的简历。然后人工智能系统会找出影响决策的主要因素,开发人员会测试系统的准确性并进行部署。在这个简单的例子中出现了两个问题:一是人力资源专家的决定一开始就有偏见,二是训练数据集可能不代表特定的性别、年龄、种族等数据。例如,一家企业可能在历史上不经意地只聘用男性候选人作为前端开发人员,导致AI将女性候选人排除在外,甚至给她们面试。这导致了第一种消除AI偏差的方法。1.数据公平人工智能在克服诸多挑战方面发挥了重要作用。然而,AI系统使用的数据必须结构良好且尽可能公正。在大多数情况下,人工智能偏差的最大原因是训练数据,尤其是对于没有经验的开发人员或小公司。获得足够多样化的数据集,将每个人口统计数据或任何其他关键属性都考虑在内,是数据科学家的梦想。这就是为什么开发人工智能的公司应该尽最大努力消除训练数据中的偏见,并在开发过程的每个阶段都考虑到这一点。艾伦图灵研究所提出了一种旨在发现数据集问题的方法。例如,一家企业雇用使用人工智能系统的前端开发人员。在这种情况下,为确保算法公平,开发人员需要运行一个简单的测试,要求AI系统评估两名具有相同技能和经验的求职者,唯一的区别是性别或其他非必要变量。一个公平的人工智能系统会给两个申请人相同的评分,而一个公正的人工智能会给男性申请人更高的分数,这表明系统需要调整。该研究所制定了一套指导方针,以帮助人工智能开发人员确保其模型的公平性。这些举措将在解决人工智能偏见问题方面发挥越来越重要的作用。2.对抗性学习除了有缺陷的数据集外,模型学习阶段也可能出现偏差。为了应对这种情况,许多开发人员现在采用对抗性学习方法。这意味着除了采用主模型(例如对应用程序进行排名的模型)之外,您还需要采用另一个模型,该模型试图根据主模型的结果识别敏感变量(年龄、性别、种族等).如果主模型是无偏的,对抗模型将无法确定敏感属性。数据科学家认为这种技术是最有效和最容易使用的技术之一,因为与传统的重新加权方法不同,对抗性学习可以应用于大多数建模方法。3.基于拒绝选项的分类最后,有一些后处理技术可以帮助消除偏见。这种方法的吸引力在于,工程师和数据科学家无需费心调整模型或更改数据集,因为只需修改模型输出即可。拒绝基于选项的分类是最流行的后处理技术之一。从本质上讲,通过拒绝模型最不合理的预测来减少偏差。例如,置信度阈值可以设置为0.4。如果预测确定性为0.39或更低,AI系统会将输出标记为有偏差。4.团队多样性在人工智能领域的导航比人们通常认为的更多地依赖于对商业环境的了解。毫无疑问,数据科学与数据处理密切相关,但了解这些数据背后的内容同样重要。即便如此,数据科学家的无意识偏见在影响他们的算法方面发挥着关键作用。这就是为什么消除AI中的偏见通常与雇用不同种族、性别和背景的人密切相关。为了使招聘更加公平合理,企业需要采用更加客观的面试技巧。尤其是大公司,很多面试仅限于传统的简历筛选。具有前瞻性和创新性的企业需要将基于现实世界项目的数据分析作为其面试过程的核心部分。他们不仅会评估候选人在数据分析方面的科学表现,还会确保他们能够在商业环境中解释研究结果。随着AI成为许多业务转型的驱动力,必须建立一个清晰的框架来解决AI中的偏见。人们需要认识到,无论采取何种措施,都无法完全减少偏见。然而,控制算法中的偏见比控制人类的偏见容易得多。