在机器学习和AI方面,不乏丑闻。在过去的几个月里,人们看到微软公司的记者使用LittleMix乐队成员的虚假形象来说明有关种族主义的文章。惩罚,以及最近,Twitter的人工智能图像裁剪工具似乎更喜欢白人脸而不是黑人脸。但AI偏见不仅限于知名公司和备受瞩目的丑闻。Capgemini最近的一份报告调查了800家组织和2,900名消费者,显示90%的组织知道至少有一个人工智能系统在其业务中引起道德问题的实例。此外,调查结果显示,虽然三分之二(68%)的消费者希望人工智能模型公平且没有偏见,但只有53%的企业有负责人工智能系统道德规范的领导者,例如首席道德官。接受独立审计的人工智能系统对道德的影响更小(只有46%)。很明显,随着人工智能融入我们生活的方方面面,公司需要做更多的工作来确保他们的系统没有偏见,甚至需要找到使用该技术来减轻有害偏见的方法,以便做出更公平的商业决策.团队建设那么我们该怎么做呢?它首先要建立一个多元化的团队,而这个行业仍然未能做到这一点。根据AINowInstitute发表的研究,80%的AI教授是男性,Facebook上只有15%的AI研究人员,Google上只有10%的AI研究人员是女性。SopraSteria数字伦理与技术负责人JenRodvold表示:“多样性不仅是人工智能战略成功的关键,也是公司盈利的关键。多元化的员工队伍将提供各种观点,标记开发过程中涉及的任何偏见,并帮助审视更广泛的组织过程,这些过程可能会延续这种偏见并以无法预料的方式影响您的技术开发方式。”ImaginationTechnologies人工智能高级产品总监AndrewGrant对此表示赞同,并表示确保数据科学家的多样性对于开发符合道德标准的AI至关重要。为了在构建用于训练AI的数据集时确保最佳实践,首先需要各种数据科学家收集和分析数据。他说:“训练AI的任何部分都不应该由个人监督,通过交叉检查工作可以更有效地消除个人偏见。“多样化的数据也需要各种各样的数据集。通过在历史数据上训练机器学习模型(例如,显示男性更经常晋升到高级职位的数据,或者技术行业的大多数工人是白人的数据),编码AI偏见几乎是不可避免的。埃森哲人工智能经理CarynTan告诉AI:“构建和设计人工智能的组织必须记住,它受到所提供信息的限制。”算法无法判断它何时不公平,它只是遵循历史模式.如果我们不采取措施来缓解这种情况,可能会导致不良的反馈循环,可能会根据人们的出身、历史甚至刻板印象使他们陷入困境。因此,组织必须采取积极措施来解决潜在的偏见,然后才能产生偏见机会体现出来。”CodeFirstGirls首席执行官AnnaBrlsford补充说,为了确保使用各种数据集训练模型,至关重要的是“多样性和包容性是b基础的一部分商业决策。”她说,“在科技行业,机器学习和人工智能系统天生就有偏见,这是用来训练他们的智能的数据集的结果。”哈佛研究人员发现,公司正在使用有缺陷的历史数据集来训练他们的人工智能招聘;这意味着有色人种和女性甚至在参加面试之前就受到歧视。“自上而下的方法不是答案,可能会进一步加剧现有的人工智能偏见。相反,企业需要将多样性和包容性视为一个持续学习的过程。”透明度是关键当然,企业还必须考虑AI准则和透明度,尤其是在监管审查日益严格的情况下。例如,欧盟委员会发布了设计AI应用程序时应使用的关键道德原则指南,而美国联邦贸易委员会(FTC)则在2020年初呼吁“透明AI”。后者指出,当启用AI时如果系统做出不利决定,例如拒绝信用卡申请,组织应向受影响的消费者展示用于做出决定的关键数据点,并赋予他们更改任何不准确信息的权利。信息。NTTDATAUK初创企业和创新副总裁TomWinstanley表示:“随着AI在整个经济领域不断扩大规模,企业制定稳健的道德标准并将AI原则纳入其运营核心至关重要。透明度至关重要:公司不能依赖“黑匣子”数据集,但应该公开他们如何训练他们的AI以及他们采用的标准以确保它被负责任地使用。因此,NTTDATA在去年公开了自己的人工智能道德规范。Rodvold补充说:“确保技术透明度以及强有力的多元化做法将有助于消除偏见并确保建立公众信任。”考虑AI开发中的多样性、透明度、隐私和安全性交叉点的数字伦理整体方法将确保您吸引客户参与他们的AI之旅并提供高效、可持续的技术。“随着人工智能在各个行业变得越来越普遍,并且这些系统中存在的偏见问题已得到充分记录,企业现在就必须采取行动以确保其软件和流程没有偏见。重要。值得庆幸的是,虽然它的采用已经AI在疫情期间暴涨,需要有所作为,这意味着AI的未来仍可以通过战略多元化的努力得到更好的塑造。
