当前位置: 首页 > 科技观察

人工智能处于“偏见”的十字路口

时间:2023-03-12 13:50:31 科技观察

随着公司将更多的机器学习和人工智能模型投入生产,人们越来越意识到他们系统中的偏见。这种偏见不仅会导致人工智能系统做出更糟糕的决定,还会使运行人工智能系统的组织处于法律危险之中。偏见可以渗透到各种行业中使用的人工智能系统中。哈佛大学和埃森哲去年发布的一份报告显示了算法偏见如何渗透到人力资源的招聘过程中。在2021年的联合报告《隐藏的员工:未开发的人才》中,不恰当的职位描述和严重依赖算法发布职位广告和简历评估的自动招聘系统如何阻碍合格人员找到工作。偏见会导致两种最坏的情况。尽管企业在技术上花费了大量资金,但该系统仍在沿用过去的错误做法,效率更高,但结果却更糟。警务是另一个容易因算法偏差而产生意外后果的领域。某些警务预测产品已被证明在特定社区的犯罪预测和种族之间具有显着相关性,并且这种流行的预测警务产品可能对少数群体存在偏见。研究发现,在美国,一个地区居住的白人居民越少,黑人和拉丁裔居民越多,该产品预测犯罪发生的可能性就越大。贫富社区之间也存在同样的差距。在DataRobot对美国和英国各行业350家组织的调查中,超过一半的人表示他们非常担心AI偏见可能会伤害他们的客户和他们自己。调查显示,54%的美国受访者表示,他们“非常担心”或“非常担心”AI偏见对其组织的潜在危害。相比之下,在2019年进行的一项类似研究中,这一比例为42%。调查显示,他们的英国同事对AI偏见持怀疑态度,64%的人表示他们同意这种观点。虽然超过三分之一(36%)的受访者表示他们的组织已经受到人工智能偏见的影响,但收入损失和客户流失是最常见的后果。失去消费者信任被认为是人工智能偏见的第一大潜在风险,56%的受访者提到了这一点,其次是品牌声誉受损、监管审查加强、员工信任丧失以及个人道德差异、诉讼和股价下跌.虽然四分之三的受访组织表示他们计划检测AI中的偏见,但约四分之一的组织表示他们对检测AI中的偏见的能力“非常有信心”。受访者列举了消除偏见的几个具体挑战,包括:难以理解人工智能模型做出决策的原因;理解输入值和模型决策之间的模式;对算法缺乏信任;训练数据的清晰度;保持模型的AI动态更新;教育利益相关者识别人工智能中的偏见;并且不清楚偏见是什么。那么你如何解决人工智能中的偏见?首先,81%的受访者表示他们相信“政府监管将有助于定义和防止人工智能中的偏见。”调查称,在缺乏政府监管的情况下,大约三分之一的人担心人工智能“会伤害用户”。但与此同时,45%的受访者表示,他们担心政府监管会增加成本并加大采用AI的难度。只有约23%的人表示他们不担心政府对人工智能的监管。总而言之,当谈到人工智能的偏见时,我们似乎正处于十字路口。随着人工智能的采用越来越被视为现代企业的必备条件,采用该技术的压力相当大。企业越来越关注人工智能的意外后果,尤其是在道德方面。人工智能领域的从业者需要了解和理解人工智能和伦理的重要性和影响。消除偏见的一个核心挑战是理解为什么算法首先做出决定。在应对AI偏见和随之而来的复杂性时,需要规则和法规来指导我们。今天,国际组织和行业巨头已经开始研究人工智能的原则和法规,但还需要做更多的工作来确保模型的公平、可信和可解释性。