根据定义,人工智能(AI)旨在模仿人脑的工作方式以优化组织活动。不幸的是,虽然我们已经能够更接近于人工重建人类智能,但人工智能还表现出另一种独特的人类特征——基于种族、民族或性别对某人的偏见。人工智能中的偏见并不是一个新概念。最近和过去在医疗保健、执法和招聘行业都发现了有偏见的算法示例。因此,几个世纪以来的不容忍和歧视继续以一种或另一种形式出现,即使世界似乎正在??朝着对所有人的宽容迈进。要了解人工智能如何强化长期存在的人类偏见,我们需要确定偏见潜入人工智能模型和神经网络的方式。用于训练AI模型的有偏见的数据集AI驱动系统的决策仅反映用于模型训练的输入数据的类型。因此,如果AI模型吸收的数据集具有歧视性,输出的建议或决策也会遵循相同的趋势。在初始机器学习阶段,可以通过两种方式创建有偏见的AI模型。首先,如前所述,用于训练AI模型的数据(通常)是狭窄且有偏见的。其次,由于给定数据集中样本的偏差,会产生判别算法。输入数据可能很窄,要么是由于疏忽,要么是因为从事培训过程的数据科学家天生保守、心胸狭隘和有偏见。歧视性AI的最好例子之一是臭名昭著的COMPAS系统,该系统已在美国多个州使用。人工智能驱动的系统使用历史监狱数据库和回归模型来预测被释放的罪犯是否有可能在未来再次犯罪。正如预期的那样,该系统的预测显示,与白种人相比,非裔美国人的累犯人数几乎翻了一番。造成这种偏见的主要原因之一是网络管理员在分析他们的预测时从不尝试从系统中检测歧视性线索。通常,AI偏见的受害者是女性、特定地区的少数民族或具有移民背景的人。正如他们所说,人工智能的模型不会引入新的偏见,而只是反映社会中已经存在的偏见。如上所述,机器训练的数据收集过程也可能存在偏差。在这种情况下,指定的AI治理官员知道收集到的数据存在偏差,但仍然选择忽略它。例如,学校在收集与招生背景相关的数据时可能只选择白人候选人。此外,学校可能会拒绝其他孩子学习的机会。在什么可能是一个循环中,AI模型可能会密切观察学校如何选择专门选择白人学生。后来,该模型将继承种族主义遗产,因为它的模式分析仅表明这是学校招生期间的正确做法。因此,尽管有尖端技术来处理这一过程,但种族主义却多次得到强化。除了种族或性别歧视之外,人工智能中的偏见甚至可能表现为对富人的优待。因此,穷人在AI数据集中的代表性可能不足。在正在进行的COVID-19时代,甚至可以想象一个假设的例子。一些国家开发了自己的移动应用程序,可用于追踪感染病毒的人,并提醒任何特定区域的其他人与他们保持距离。虽然该程序可能具有崇高的目的,但没有智能手机的人在该应用程序中将完全不可见。虽然这种偏见不是任何人的错,但它首先违背了设计此类应用程序的目的。总之,歧视性的训练数据和操作实践会直接导致人工智能系统和模型出现偏差。AI模型中的偏见可以渗透到AI模型中的另一种方式是通过代理。用于机器训练的一些细节和信息可能与受保护的功能相匹配。由此产生的偏见实例可能是无意的,因为用于做出理性和校准决策的数据最终可能会成为班级成员的代表。例如,假设一家金融机构使用人工智能系统来预测哪些贷款申请人可能难以偿还。用于训练AI系统的数据集将包含跨越三个多世纪的历史信息。现在,此输入数据不包含与申请人的肤色或性别相关的详细信息。但是,假设系统预测居住在特定位置(与特定邮政编码相关联)的人将拖欠贷款分期付款。此预测仅根据历史记录生成。当银行因为他们居住的地方而决定不批准他们的贷款申请时,居住在该地区的人可能会感到受到歧视。人工智能中的这种偏见可以通过让人类官员参与进来来消除,这些官员可以根据实际事实而不仅仅是历史记录来推翻人工智能系统的决定。除此之外,还有其他几种方法可以产生有偏见的人工智能,然后在当今时代继续强化古老的偏见。有几种方法可以完全消除AI中的偏见,或者至少在很大程度上减少偏见。选择更具代表性的数据集组织中的每个人都需要努力降低其人工智能系统在工作中出现偏差的可能性。正如我们所见,人工智能的偏见完全源于它为机器训练或日常操作接收的数据类型。收集大量培训和操作数据的数据科学家和其他专家需要处理各种数据,包括所有种族和少数民族的人。在这样的数据集中,女性必须和男性一样多。此外,只有当数据专家向类似分段的模型提供输入数据时,AI模型中的分段才应该存在。此外,使用AI应用程序的组织不得针对不同的种族和民族多样性使用不同的模型。如果单个人群的数据不足,组织可以使用加权等技术来平衡其相对于其他人群的重要性。如果每个数据集都没有得到谨慎对待和同等权重,则AI模型存在偏差风险。识别潜在的触发因素或偏见来源检测某些类型的偏见可能进入AI系统的区域和操作是任何组织中AI治理团队和执行级别员工的主要职责。理想情况下,必须在将AI纳入组织之前执行此过程。组织可以通过检查数据集并检查它们是否导致AI模型具有狭窄的“观点”来减轻偏见。经过彻底检查后,组织必须进行试运行,看看他们的人工智能系统是否在工作中表现出偏见。最重要的是,组织必须列出涵盖所有有偏见的人工智能领域的问题。然后,他们必须不断寻找解决方案来一一回答这些问题。实施严格的AI治理指南AI治理团队在防止AI系统随着时间的推移变得具有歧视性方面发挥着关键作用。为避免AI偏见,治理团队必须定期更新AI模型。更重要的是,团队应制定不可协商的法规和指南,以检测和消除或至少减轻用于机器训练的输入数据集中的偏差。除此之外,必须建立清晰的沟通渠道,以便组织中任何级别的员工在收到客户关于AI歧视的投诉时都可以通知治理团队。即使员工自己发现他们组织的AI可能有偏见,这些渠道也能发挥作用。AI中的偏见对于成为其决策牺牲品的个人或团体来说可能会非常痛苦。更有问题的是,有偏见的人工智能系统是新一代的象征,他们面临着人类历史上不幸受害者几个世纪以来的边缘化和歧视。因此,我们必须确保为模型训练和有能力的人工智能治理提供多样化的输入数据集,从而将算法偏差消灭在萌芽状态。歧视性AI是每个人的问题,因此组织中涉及AI模型的设计、实施和维护阶段的所有各方都应该联合起来解决这个问题。
