当前位置: 首页 > 科技观察

人工智能可以帮助消除偏见吗?

时间:2023-03-15 23:40:27 科技观察

“我们看不到事物的本来面目,我们只是按照我们的方式看待它。”她相当简洁地描述了我们大脑中各种不幸的偏见。亲和偏差、确认偏差、归因偏差和光环效应,其中一些在商业环境中更为人所知的推理错误,实际上只是表面现象。总的来说,他们留下了一连串的冒犯和错误。当然,最有害的人类偏见是那些基于年龄、种族、性别、宗教或外表对我们的人类同胞或对我们施加偏见的偏见。尽管我们努力使我们自己、我们的工作环境和我们的社会免受这些扭曲的影响,但它们仍然渗透到我们的思想和行为中,甚至包括人工智能等现代技术。批评者说,AI使偏见变得更糟自从AI首次应用于招聘、贷款审批、保险费建模、面部识别、执法和许多其他应用程序以来,批评者(有充分的理由)该技术产生偏见的趋势是指出。例如,谷歌的新版本语言模型BERT(BidirectionalEncoderRepresentationsfromTransformers)是一种领先的自然语言处理(NLP)模型,开发人员可以使用它来构建自己的AI。BERT最初是使用维基百科文本作为主要来源构建的。那是问题吗?维基百科的贡献者绝大多数是来自欧洲和北美的白人男性。因此,基于语言的人工智能最重要的来源之一从一开始就存在偏见。在人工智能发展的另一个关键领域计算机视觉中也发现了类似的问题。人脸识别数据集包含数十万张带注释的人脸,这对于开发用于网络安全、执法甚至客户服务的人脸识别应用程序至关重要。然而,事实证明,开发人员(可能主要是白人中年男性)在不知不觉中更擅长为像他们这样的人实现准确性。妇女、儿童、老年人和有色人种的错误率远高于中年白人男性。因此,IBM、亚马逊和微软被迫在2020年停止向执法部门出售他们的面部识别技术,因为担心这种偏见可能导致对嫌疑人的错误识别。要了解更多信息,请观看重要且有时令人毛骨悚然的纪录片《编码偏见》CodedBias。如果AI实际上是解决偏见的一部分呢?然而,对人工智能偏见现象的更好理解表明,人工智能只是暴露并放大了已经存在但被忽视或误解的隐性偏见。人工智能本身不受肤色、性别、年龄和其他偏见的影响。它不太容易受到困扰人类的逻辑谬误和认知偏见的影响。我们在AI中看到偏见的唯一原因是人类有时会使用启发式错误和有偏见的数据来训练它。自从发现上述偏差以来,各大科技公司都在努力改进数据集并消除偏差。一种消除人工智能偏见的方法?——通过使用人工智能!如果这看起来不太可能,让我们继续。在工作机会中可以找到使用AI消除招聘偏见的经典示例。在最令人垂涎??的就业机会范围内,众所周知,女性和有色人种的代表人数不足。随着新员工成为负责招聘的高级领导,这种现象会自我延续。亲和偏见确保“像我这样的人”继续被雇用,而归因偏见则根据过去员工的表现来证明这些选择是正确的。但当人工智能在招聘中发挥更大作用时,这种情况可能会改变。Textio、GenderDecoder和Ongig等工具使用人工智能来仔细检查关于性别和其他特征的隐藏偏见。Knockri、Ceridian和Gapjumpers使用人工智能删除或忽略识别性别、国籍、肤色和年龄的特征,因此招聘经理可以只关注候选人的资格和经验。其中一些解决方案还通过客观评估候选人的软技能或改变他们的电话声音来掩盖他们的性别,从而减少面试过程中的近因偏见、亲和力偏见和性别偏见。使用人工智能消除风险投资决策中的偏见可以在风险投资界采取类似的方法。在风险投资领域,男性占合伙人的80%,而女性仅获得2.2%的投资,尽管女性是40%新创企业的创始人。例如,总部位于英国的创业加速器FoundersFactory编写的软件可以根据创业成功的可识别特征筛选项目候选人。同样,由女性经营的非营利组织F4capital开发了“初创企业FICO评分”,用于评估初创企业的成熟度、机会和风险,以消除风险决策过程中的偏见。这种方法应该被广泛采用,不仅因为这是一件合乎道德的事情,还因为它带来了更好的回报——比没有人工智能帮助的投资高出184%。人工智能还可以帮助在医疗保健方面做出更好的决策。例如,医疗诊断公司FlowHealth正致力于使用人工智能来克服医生诊断患者时经常使用的认知偏差。例如,“可用性启发式”鼓励医生做出常见但有时不正确的诊断,而“锚定启发式”使他们坚持不正确的初始诊断,即使新信息与他们相矛盾。我相信人工智能将成为快速发展的数据驱动个性化医疗世界的重要组成部分。AI可以减少常见偏见的其他领域AI甚至可以帮助减少危害较小但仍然非常强大的偏见,这些偏见通常会影响我们的商业判断。想一想(在英语国家)对用英语发布的信息的偏见,创业公司对老年人的偏见,尽管他们有更多的知识和经验;制造业倾向于使用相同的供应商和方法,而不是尝试新的和可能更好的方法。不要忘记,在经济困难时期,供应链管理高管和华尔街投资者会根据情绪因素做出短期决策。让人工智能在所有这些领域发挥作用,可以有效地检查决策过程中未被识别的偏见。AI甚至可以用来减少AI中的偏见。如果犯错是人的天性,那么人工智能可能是我们避免因隐藏的偏见而造成代价高昂和不道德后果所需的解决方案。但这些偏见对人工智能本身的干扰又如何呢?如果人工智能误读有偏见的数据并放大有偏见的人类启发式方法,它怎么能成为有用的解决方案呢?现在有一些工具旨在消除潜入人工智能的隐性人类和数据偏见。由Google的人员和AI研究团队(PAIR)开发的What-If工具允许开发人员使用广泛的“公平指标”库来探索AI的性能,而PWC的BiasAnalyzer工具、IBMResearch的AIFairness工具而O'Reilly的每个LIME工具都可以帮助我们识别AI代码中的偏差。如果你是一名高级管理人员或董事会成员,正在考虑AI可能会如何减少组织中的偏见,我敦促你将AI视为你武器库中一种有前途的新武器,而不是完全解决问题的灵丹妙药。从整体和实际的角度来看,您仍然需要建立减少偏见的基线,培训您的员工识别和避免隐藏的偏见,并收集来自客户、供应商或顾问的外部反馈。偏见审查不仅是一个好主意,在某些情况下,它们甚至是法律。