人工智能(AI)具有巨大的潜力,可以通过创新改善社会的各个方面,从传统的工程系统到医疗保健,再到艺术和娱乐的创作过程。例如,在好莱坞,制片厂正在使用AI来发现和衡量剧本中的偏见——制作人和编剧需要使用这些工具来创造一种更公平、更具包容性的媒体。然而,AI的智能程度取决于它所训练的数据,而这些数据反映了现实生活中的偏见。为了避免刻板印象和排他性长期存在,技术人员正在解决现实生活和创新中的公平和包容性问题。与生俱来的人类偏见当技术人员希望使用AI寻找以人为本的解决方案来优化行业实践和日常生活时,意识到我们与生俱来的偏见可能会产生意想不到的后果至关重要。“作为人类,我们有很大的偏见,”德勤人工智能研究所全球负责人、德勤技术和人工智能伦理负责人Ammanath说。“随着这些偏见融入系统,社会的某些部分可能会被抛在后面——代表性不足的少数群体,无法使用某些工具的人——这可能会导致世界上更多的不平等。”如果系统是用有偏见的数据训练的,或者研究人员没有考虑他们自己的观点如何影响研究方向,那么善意的项目——创造平等的结果或减轻过去的不平等——最终仍然会产生偏见。Ammanath说,到目前为止,对AI偏见的调整通常是对事后发现有偏见的算法或代表性不足的人口统计数据的回应。但企业现在必须学会如何积极主动,及早缓解这些问题,并为人工智能工作中的失误承担责任。AI中的算法偏差在AI中,偏差以算法偏差的形式出现。“算法偏差是构建人工智能模型的一系列挑战,”惠普实验室首席架构师兼惠普企业(HPE)副总裁KirkBresniker解释说。“我们可能会遇到挑战,因为我们的算法无法处理不同的输入,或者因为我们没有收集到足够广泛的数据集来纳入我们的模型训练。无论哪种情况,我们都没有足够的数据。“算法偏差可以也来自不准确的处理、数据被修改或有人注入虚假信号。无论有意与否,这种偏见都会导致不公平的结果,使一个群体享有特权或完全排斥另一个群体。例如,Ammanath描述了一种旨在识别不同类型鞋子的算法,例如人字拖、凉鞋、正装鞋和运动鞋。但是,发布时,该算法无法识别高跟鞋女鞋。开发团队是一群刚毕业的大学毕业生——都是男性——他们从未想过用女鞋来训练它。“这是一个微不足道的例子,但你意识到数据集是有限的,”Ammanath说。“现在想想一个类似的算法,它使用历史数据来诊断疾病或疾病。如果它没有针对某些体型、某些性别或某些种族进行训练会怎么样?其影响是巨大的。”“至关重要的是,她说,如果你没有这种多样性,你就会错过某些场景。”更好的AI意味着自我监管和道德规范简单地获取更大(和更多样化)的数据集是一项艰巨的任务挑战,尤其是随着数据变得更加集中。数据共享引起了许多担忧,其中最重要的是安全和隐私。“现在,科罗拉多大学博尔德分校媒体研究助理教授NathanSchneider说:“我们所处的情况是,个人用户的权力远小于收集和处理他们数据的大公司。”扩大的法律法规可能最终会决定何时以及如何共享和使用数据。但创新不会等待立法者。目前,人工智能开发组织有责任成为优秀的数据管理员,保护个人隐私,同时努力减少算法偏差。德勤的Ammanath表示,因为技术成熟如此之快,不可能仅靠法规来涵盖所有可能的情况。“我们将进入一个平衡合规与存在的时代监管和自律。”这种自律意味着提高构建AI解决方案的整个技术供应链的门槛,从数据到培训再到启用这些解决方案。使解决方案成为可能所需的基础设施。此外,企业需要为跨部门的个人创造渠道,以表达对偏见的担忧。虽然不可能完全消除偏见,但企业必须定期审核其AI解决方案的有效性。由于AI的高度上下文性质,每个企业的自我监管看起来都会有所不同。例如,HPE有一套AI道德规范。全公司的不同人员花了将近一年的时间共同制定公司的AI原则,然后与广泛的员工一起审查这些原则,以确保这些原则能够得到遵守,并且对企业文化有意义。HPE的Bresniker说:“我们希望提高对这些问题的普遍理解,然后收集最佳实践。这是每个人的工作——在这个领域有足够的意识。”人工智能技术已经成熟,从研究到开发。跨所有行业的实际应用和价值创造。人工智能在社会中日益普及意味着企业现在有道德责任提供稳健、包容和可访问的解决方案。这种责任促使组织(有时是第一次)检查他们引入流程的数据。Bresniker说:“我们希望人们发展这种愿景,并对输入的数据有可衡量的信心。”“他们有能力阻止持续存在的系统性不平等,并为更美好的未来创造公平的结果。”
