2015年,Google的照片应用程序将黑人用户误认为大猩猩时必须道歉 - 尽管明显的公正性,但算法认为算法并非没有偏见。该事件引起了人们对多年慢慢发展的问题的关注。2009年,亚洲用户已经报告说,一台数码相机要求他们睁开眼睛拍照时不要眨眼。该相机由日本公司尼康出售。
毫不奇怪,人工智能(AI)计划已经对社会的偏见(是否有意识)遗传,因为他们接受了人类决策和人类收集的数据集的培训。问题在于算法具有中立性的光泽,这可能会掩盖阴险的社会偏见。例如,在2018年,亚马逊不得不废除该公司在十年内收到的工作申请培训的AI招聘工具 - 他们的计划,符合科技行业的往绩,表现出对妇女的偏见。
许多面部识别计划都有种族偏见。信用:NIST
咨询公司EVETAS的创始人兼董事Gemma Galdon回忆起一个人在线工作银行Infojobs上从男性变成女性名字的案例。尽管候选人的资格没有变化,但职业网站的算法开始列出传统上的女性工作,尽管没有变化。加尔登说:“所有公司都必须遵循同等运动的策略:如果他们只雇用男性,他们就可以被起诉,为什么不被迫在其算法中检查偏见?”
人工智能已经在金融,司法系统,医疗保健和国家安全方面都采取决策(或艾滋病决策过程),对社会少数群体进行了不公平的待遇。消除烘烤这些计划的偏见已成为紧迫的问题。对于某些数字服务,该解决方案似乎很简单:如果面部识别算法难以辨别黑色和亚洲面孔,例如,培训数据集可能需要更大的多样性。
但是,更深入的问题没有明确的答案。今年,一项发表在《科学》杂志上的研究表明,美国使用的一种重要的分类算法低估了黑人患者的医疗需求。令人惊讶的是,它没有事先了解自己的种族,因为它是根据其医疗保健费用来分配风险评分的。碰巧的是,美国平均在黑人患者的健康上花费的钱更少。
为什么机器人偏见?
在这种情况下,开发人员选择医疗保健费用,因为他们认为这是适合实际医疗保健需求的合适,无偏见的代理,但他们弄错了。换句话说,他们已经训练了该算法以正确解决了一个不当定义的问题。“有几个原因为什么算法可能会偏见或不公平。首先,因为它反映了社会,重现已经存在的不公平动力。也可能是训练数据歪曲了,或者问题已被错误定义。或者可能是工程师增加了自己的偏见。我们已经意识到,每种具有社会影响的算法都是有偏见的。”加尔登说。
几种招聘和求职算法证明了性别歧视偏见。来源:maxpixel
第一个挑战是确定不公平的决定,以阻止他们并避免将来重复。非营利性算法观看者Nicolas Kayser-Bril是识别有偏见的技术的专家。他说:“您可以通过老式的眼睛歧视认出它们,但很难证明偏见。”问题的一部分是,AI代码通常是无法理解的,就像黑匣子一样 - 即使是创造者不喜欢决策过程。
凯耶·布里尔(Kayser-Bril)说:“当我知道使用的算法类型时,我知道要问哪些问题。”“在机器学习的情况下,我想知道使用了哪些数据培训集”。在这一点上,他的努力通常因缺乏发展中国家和机构的透明度而挫败。他解释说:“ AI旨在检测其他AIS的偏见,但是只要该算法是专有的,我们,记者就无法分析它。”对于Kayser-Bril来说,情况类似于餐厅的卫生检查。他说:“您想找出餐厅是否正在卫生运行,因此您可以查看所提供的菜肴,但您真正想做的就是进入厨房检查菜肴的制作方式。”
芽在芽中的偏见
加尔登(Galdon)的公司确实拜访了客户的“厨房”,以帮助他们解决并避免算法中的偏见。她说:“我们审核了机器学习,但这仅占我们发现问题的一小部分,也许是20%。”加尔登声称,其余的80%的工作更为“实质性”,涉及分析整个决策链,从问题的定义以及技术人员的假设到为最终用户提供的特定培训的假设,那些将在中使用算法的人社会成果的工作。
技术人员不由自主地永久存在刻板印象和社会偏见。来源:maxpixel
根据专家的说法,开发人工智能的团队必须努力争取更大的社会和专业多样性,这将是为该领域建立更公平的未来的关键。在美国,只有2.5%的Google劳动力是黑人。此外,技术人员很少与社会科学家合作,以确保他们的假设在启动项目之前是合理的。但是加尔登说,时代正在发生变化:“工程师遇到的问题,他们知道他们没有培训,我们的干预始终受到欢迎,”她指的是公司的咨询服务。
除了导致彻底歧视的计算机程序外,技术行业还有一个总体不平等问题。简而言之,算法仅针对那些负担得起的人开发,从一开始就建立了不平等的动力动力。神经技术电影《我是人类》的主任Taryn Southern告诉在线门户网站Big,认为旨在使我们“更聪明,更聪明,更好,更快,更快”的脑机界面反映了“西方偏见,以偏爱生产力和效率”。为什么每个人都分享这些价值观?南方人建议:“也许在其他东方文化中,他们会指示使用界面来引起更大的平静状态或产生更多同情心。”
布鲁诺·马丁(BrunoMartín)
@TurbanMinor