人工智能正在各行各业的企业中快速部署,预计未来三年内企业在人工智能系统上的支出将翻一番。然而,人工智能并不是最容易部署的技术,即使是功能齐全的人工智能系统也会带来业务和客户风险。最近关于人工智能在信贷、招聘和医疗保健应用中的新闻报道强调的主要风险之一是可能存在偏见。因此,其中一些公司受到政府机构的监管,以确保他们的人工智能模型是公平的。机器学习模型在真实示例上进行训练,以模拟未见数据的历史结果。训练数据可能由于多种原因而存在偏差,包括代表受保护群体的数据项数量有限,以及在争论数据的过程中潜伏着人为偏见的可能性。不幸的是,在有偏见的数据上训练的模型通常会在他们做出的决定中延续偏见。确保业务流程的公平性并不是一个新范例。例如,美国政府在1970年代通过《平等信贷机会法》(ECOA)和《公平住房法》(FHAct)等公平借贷法禁止信贷和房地产交易中的歧视。此外,《同酬法》、《民权法》、《康复法》、《就业年龄歧视法》和《移民改革法》都针对特定受保护群体的歧视提供了广泛的保护。建立公平的人工智能需要一个两步过程:理解偏见和解决潜在偏见。在本文中,我们将关注第一个主题。了解偏见在解决问题之前,您需要首先确定它的存在。任何公司都不会将其AI系统偏向于怀有恶意的用户。相反,由于模型开发生命周期中缺乏意识和透明度,无意中引入了偏见。下面列出了最佳实践,以更好地理解和减少ML开发生命周期中的偏差。(1)从关键利益相关者那里获得不公平支持的系统类似于具有重大业务影响的安全风险。实施公平的治理过程需要物质资源。如果没有领导团队的支持,实施流程所必需的任务可能无法获得比其他业务优先级足够的开发能力。因此,一个强大的以公平为中心的AI流程始于一个为AI的所有利益相关者(包括管理团队)提供支持的系统。(2)任命一名“内线防守者”以确保支持,然后任命一名冠军负责建立公平的流程。Advocate在包括法律和合规代表在内的团队之间进行沟通,以起草具有公司领域(例如,医疗保健、招聘等)信用)相关标准等的特定用例。有几个偏差指标,例如机会平等、人口统计平等。公平性指标的选择取决于用例,并且掌握在从业者手中。在最终确定指南后,捍卫者联盟将对相关团队进行培训。为了使其可行,AI公平工作流程确保了数据和模型的偏差。此外,它还需要访问经过公平评估的受保护属性,例如性别和种族。在大多数情况下,很难收集受保护的属性,并且在大多数情况下直接在模型中使用它们是非法的。然而,即使受保护的属性未用作模型特征,也可能存在代理偏差,并且另一个数据字段(例如邮政编码)可能与受保护的属性(例如种族)相关联。如果不保护属性并对其进行衡量,就很难识别偏见。该团队解决这一差距的一种方法是在贷款承保模型的情况下使用人口普查数据推断受保护的属性,例如性别和种族。测量偏差接下来,我们需要测量偏差。不幸的是,许多类型的机器学习模型固有的不透明性使得测量它们的偏差变得困难。AI的可解释性是最近的一项研究进展,可以解开AI的黑匣子,让人们了解AI模型内部正在发生什么。这导致对偏见的透明评估,以确保人工智能驱动的决策是负责任和值得信赖的。以下是ML模型的公平报告示例:该特定报告是用于评估风险以做出贷款决策的模型。它在受保护的“种族”属性上有额外的元数据。使用此报告,用户可以使用各种公平指标查看组公平性和差异影响。建议您根据用例的领域要求,关注特定指标(例如“误报率”)和特定特权类别(例如高加索人)来衡量偏差。除了像上面的贷款模型这样的表格模型之外,文本和图像模型中也会出现偏差。例如,下图显示了一个文本模型,该模型正在测量用户生成的注释的毒性。下面的样本偏差报告显示了该模型如何评估跨种族和宗教类别的毒性。请注意热图如何显示该模型相对于“女性”和“无神论者”身份群体的偏见要小得多。在这种情况下,ML开发人员可能希望向训练集中添加更具代表性的有偏见的身份组示例。生产模型的公平性考虑无论部署前是否存在偏差,一旦模型服务于实时流量,就很可能会出现偏差。偏差的变化通常是由于为部署的模型提供的输入数据在统计上与用于训练模型的数据不同而引起的。因此,最佳做法是在部署后监控模型中的相关偏差指标。下面的屏幕截图描述了监控模型准确性指标的情况,该指标是用于跟踪潜在偏差的相关指标之一。总之,人工智能提供了独特的机会来量化和解决迄今为止以人为主导且不透明的决策系统中的偏见。
