当前位置: 首页 > 科技观察

为什么人工智能有缺陷?

时间:2023-03-13 08:43:05 科技观察

人工智能已经成为每个人生活中不可或缺的一部分。它已被用于从简单的任务(如YouTube建议)到复杂的救生任务(如生成治疗疾病的药物)的方方面面。它以比我们意识到的更多的方式影响我们的生活。但是人工智能公平吗?不,绝对不是。定义一个公平的AI很难。这是我能想到的最好的解释。如果输出独立于受社会歧视影响的特定任务敏感参数(例如性别、种族、性别、宗教、残疾等),则给定的AI模型是公平的。在这篇文章中,我将撰写有关AI偏见、AI偏见的真实示例以及如何解决它的文章。问题AI偏差是由用于训练模型的数据的固有偏差引起的,从而导致社会歧视。这导致缺乏平等的机会。例如,假设我的任务是创建一个模型,该模型使用位置作为参数来计算一个人的信用评分。某些种族集中在某些地方。这将使我的模型在种族上偏向于那些种族群体,从而在获得信用卡和银行贷款时影响他们。受青睐的AI模型加剧了当前的社会歧视并为压迫铺平了道路。现实生活中的AI偏见示例以下是AI偏见的一些现实示例:).行为)软件。由于数据存在严重偏差,该模型预测黑人的累犯率是白人的两倍。亚马逊的招聘:2014年,亚马逊开发了一个人工智能招聘系统来简化其招聘流程。由于用于训练模型的数据来自过去10年,因此大多数被选为男性的申请人都被发现存在歧视,原因是科技行业男性占主导地位。亚马逊于2018年取消了该系统。美国医疗保健:美国医疗保健系统使用的人工智能模型将相同疾病的发病率分配给黑人的概率低于白人。这是因为该模型针对成本进行了优化,并且由于黑人被认为支付能力较差,因此该模型将他们的健康风险排名低于白人。这导致黑人的医疗保健标准较低。Twitter图像裁剪:2020年9月,Twitter用户发现图像裁剪算法更喜欢白脸而不是黑脸。也就是说,当一张图像以与预览窗口不同的宽高比发布到Twitter时,该算法会裁剪部分图像并仅显示图像的特定部分作为预览。该AI模型在预览窗口中经常将白色面孔显示为白色和黑色面孔。Facebook的广告算法:2019年,Facebook允许广告商根据种族、性别和宗教来定位用户。这导致女性从事护士和秘书等工作,而男性,尤其是有色人种则从事看门人和出租车司机等工作。该模型还了解到,当向白人展示房地产广告时,他们的点击率更高,导致向少数族裔投放的房地产广告更少。这些只是AI偏见的一些常见示例。在开发人员知情或不知情的情况下,存在许多不公平的AI做法实例。那么如何解决呢?>照片由YancyMin在Unsplash上拍摄实现公平AI的第一步是承认问题。人工智能并不完美。数据并不完美。我们的算法并不完美。我们的技术并不完美。假装没有问题是不可能找到解决办法的。其次,问问自己解决方案是否需要人工智能。不要害怕在没有机器学习的情况下推出产品——谷歌在不依赖数据方面存在一些问题。发现被告再犯的可能性等任务更多地取决于情感而不是数据。第三,遵循负责任的人工智能实践。我在下面添加了Google负责任的AI实践指南中的要点。负责任的AI实践:使用以人为本的设计方法:在设计模型中构建适当的披露,并在部署前整合测试人员的反馈。确定多个指标来评估培训和监控:使用适合任务的不同指标来了解不同错误和经验之间的权衡。这些指标可以是消费者的反馈、误报率和漏报率等。如果可能,请检查您的原始数据:AI模型反映了用于训练模型的数据。如果数据有问题,模型也会有问题。尝试获得平衡的数据。了解模型的局限性:经过训练以检测相关性的模型不一定有助于建立因果关系。例如,模型可能会了解到购买篮球鞋的人通常平均身高更高,但这并不意味着购买篮球鞋的用户因此更高。测试:严格的单元测试以识别模型中的故障。部署后继续监控和更新模型:考虑用户反馈并在部署后基于此定期更新模型。设计一个具有特定公平和包容目标的模型:与伦理学和社会研究领域的专家合作,理解和解释各种观点。尝试使您的模型尽可能公平。使用具有代表性的数据集来训练和测试模型:尝试评估数据的公平性。也就是说,寻找特征和标签之间有偏见或歧视性的关联。检查不公平的偏见:从具有不同背景的测试人员那里获取单元测试输入。这有助于确定模型可能影响的人群。分析效果:考虑不同的指标。一个指标的改进可能会损害另一个指标的性能。用于开发公平AIFATE的工具:Microsoft的Fairness,Accountability,Transparency,andEthicsinAI(FATE),它提供了用于评估可视化仪表板和消除偏见的算法的工具。主要用于比较系统的公平性和性能之间的权衡。AIFairness360:AIFairness360是IBM的开源工具包,可帮助您检查、报告和减轻机器学习模型中的歧视和偏见。MLFairnessGym:MLFairnessGym是谷歌提供的一个工具,用于探索机器学习系统对人工智能偏见的长期影响。结论在过去的几年里,公司和政府已经开始认真对待AI偏见。许多公司已经开发出评估AI公平性的工具,并正在竭尽全力打击AI偏见。尽管AI具有巨大的潜力,但现在比以往任何时候都更重要的是,我们要牢记AI系统的潜在歧视性危险,并帮助开发公平的AI模型。