本文转载自公众号《核心阅读》(ID:AI_Discovery)人工智能已经遍布我们的日常生活。从YouTube热门推荐到药物生产,它无所不在,它对我们生活的影响超出我们的想象。但人工智能一定是公平的吗?不,绝对不是。人们很难定义什么是公平的人工智能。这是我能想到的最佳定义:对于受社会歧视影响的特定任务,如果给定的AI模型能够输出独立于敏感参数(例如性别、种族、性取向、宗教、残疾等)的输出.)结果,那么这个人工智能模型是公平的。本文讨论了AI偏见、它的真实示例以及解决它的方法。人工智能偏见的问题是由于模型训练所依据的数据固有的偏见,这会导致社会歧视,进而导致机会不平等。假设我的任务是创建一个以位置为参数计算个人信用评分的模型,某些种族群体会集中在某些地方,这将使创建的模型偏向于这些种族群体,影响他们申请信贷的能力卡和银行贷款,有偏见的人工智能模型加剧了当前的社会歧视。AI偏见的真实示例COMPAS(替代制裁法案的惩罚罪犯管理分析)是美国法院用来确定被告成为累犯(重复先前犯罪的罪犯)的可能性的软件。由于严重的数据偏差,该模型预测黑人罪犯的误报率是累犯的两倍,是白人罪犯的两倍。2014年,亚马逊开发了人工智能招聘系统,简化了招聘流程。该研究发现该系统歧视女性,因为用于训练模型的数据来自过去10年。在过去的10年里,由于科技行业男性占主导地位,大多数被选中的申请人都是男性。亚马逊于2018年废除了该系统。美国医疗保健系统采用人工智能模型,认为黑人患相同疾病的风险低于白人。这是因为该模型针对成本进行了优化,并且由于黑人被认为支付能力较差,该模型将他们的健康风险排在白人之下,从而导致黑人的医疗标准较低。2019年,Facebook允许广告商根据种族、性别和宗教来定位用户。这导致护士和秘书等工作针对女性,门卫和出租车司机等工作针对男性,尤其是有色人种。该模型还了解到,房地产广告在向白人展示时具有更高的点击率,因此向少数群体投放的房地产广告较少。2020年9月,Twitter用户发现图像裁剪算法更喜欢白人脸而不是黑人脸。当在推特上发布的图像的宽高比与预览窗口不同时,算法会自动裁剪部分图像,并仅显示图像的特定部分作为预览。当黑白人脸被框在一起时,AI模型通常会在预览窗口中显示白人。这些例子只是沧海一粟。许多不公平的AI做法是真实存在的,无论开发人员是否知道。如何解决这个问题呢?迈向公平人工智能的第一步是承认这个问题。人工智能不完美,数据不完美,我们的算法不完美,我们的技术也不完美。如果我们对问题视而不见,那么就不可能找到解决办法。其次,问问自己解决方案是否需要人工智能。有些问题不依赖于数据,例如寻找被告再次犯罪的可能性等任务,这更多地依赖于情感而不是数据。第三,遵循负责任的人工智能实践。在GoogleResponsibleAIPracticeGuidelines的基础上,我补充了几个要点。负责任的AI实践:使用以人为本的设计方法:设计模型时内置适当的披露信息,并在部署前整合测试人员的反馈。确定多个指标来评估培训和监控:使用适合任务的不同指标来了解不同错误和经验之间的权衡。这些指标可以来自消费者反馈、误报率和漏报率等。如果可能,请检查原始数据:AI模型反映了用于训练它们的数据。如果数据有问题,模型也会有问题。因此,尽量保持数据平衡。了解模型的局限性:经过训练以检测相关性的模型不一定对建立因果关系有用。例如,模型可能会了解到购买篮球鞋的人通常更高,但这并不意味着购买篮球鞋的用户因此更高。测试:严格的单元测试以识别模型中的故障。部署后持续监控和更新模型:模型部署后,关注用户反馈,定期更新模型。设计一个既公平又包容的模型:与伦理学和社会研究方面的专家合作,以理解和解释观点,努力使模型尽可能公平。使用具有代表性的数据集来训练和测试模型:尝试评估数据的公平性。也就是说,寻找特征和标签之间有偏见或歧视性的关联。检查不公平的偏见:从具有不同背景的测试人员那里获取单元测试输入可以帮助确定哪些人群可能会受到模型的影响。分析性能:考虑到不同的指标,一个指标的改进可能会损害另一个指标的性能。用于开发公平AI的工具AIFairness360:这是来自IBM的开源工具包,可帮助用户检查、报告和减轻机器学习模型中的歧视和偏见。MLFairnessGym:这是谷歌提供的一个工具,用于探索机器学习系统对人工智能偏见的长期影响。FATE:Fairness,Accountability,Transparency,andEthicsinAI(FATE),Microsoft提供用于评估可视化仪表板和偏差缓解算法的工具。它主要用作公平性和系统性能之间的权衡。最近,公司和政府开始认真对待人工智能中的偏见。许多公司已经开发出评估AI公平性的工具,并正在尽最大努力解决AI偏见问题。虽然AI具有巨大的潜力,但现在我们比以往任何时候都更需要牢记歧视性AI系统的潜在危险,并帮助开发公平的AI模型。
