到目前为止,没有人会质疑大多数AI都建立在并且目前使用某种程度的有问题的偏见之上。这是一个已经被观察和证明了数百次的挑战。组织面临的挑战是根除人工智能中的偏见,而不是仅仅满足于推动更好、公正的数据。美国国家标准与技术研究院(NIST)在其出版物《迈向人工智能中识别和管理偏见的标准》(NIST1270特别出版物)的重大修订中,继去年的公众评论期之后,提出了一个强有力的论据,即超越数据,甚至ML过程也会发现和破坏人工智能偏见。作者没有指责收集不当或标签不当的数据,而是说人工智能的下一个偏见前沿是“人类和系统的制度和社会因素”,并从社会技术角度推动更好的答案。“情境就是一切,”NIST人工智能偏见首席研究员、该报告的作者之一RevaSchwartz说。“人工智能系统不是孤立运行的。它们帮助人们做出直接影响他人生活的决定。如果我们要开发值得信赖的人工智能系统,我们需要考虑所有可能破坏公众对人工智能信任的因素。在这些因素中许多人已经超越并影响了技术本身,正如我们从各种各样的人和组织那里收到的评论所强调的那样。”什么是驱动人工智能偏见的人为和系统偏见?根据NIST报告,人类基础分为两大类:个人和群体,每个类别下都有许多特定的偏见。个体人类偏见包括自动自满,其中人们过分依赖自动化技能;内隐偏见,一种影响某人决策的无意识信念、态度、联想或刻板印象;以及确认偏见,在这种偏见中,人们更喜欢与他们一起工作的信息与现有信念一致或一致。群体思维包括群体迷思,即人们出于服从群体或避免分歧的愿望而做出次优决定的现象;资助偏见,当报告有偏见的结果以满足资助机构或财务支持者时,这反过来可能会受到额外的个人/群体偏见。对于系统性偏见,NIST报告将其定义为历史的、社会的和制度的。本质上,long-st随着时间的推移,偏见已被编入社会和机构,并在很大程度上被视为“事实”或“事物的方式”。这些偏见很重要,因为人工智能部署正在影响当今组织的工作方式。由于种族偏见的数据,人们被拒绝抵押贷款和他们拥有房屋的第一次机会。求职者被拒绝面试是因为人工智能经过训练,历来会做出重男轻女的招聘决定。有前途的年轻学生被大学拒绝面试或录取,因为他们的姓氏与过去成功人士的姓氏不符。换句话说:有偏见的人工智能创造了与有效开口一样多的锁门。如果组织不积极努力消除部署中的偏见,他们很快就会发现自己对自己的思考和运作方式严重缺乏信任。NIST推荐的社会技术视角是什么?其核心是认识到任何人工智能应用的结果不仅仅是数学和计算输入。它们是由开发人员或数据科学家制作的,他们的职位和机构各不相同,并且都承担着一定程度的负担。“人工智能的社会技术方法考虑了从数据集建模的价值观和行为、与他们互动的人,以及在他们的调试、设计、开发和最终部署中涉及的复杂组织因素。”NIST认为,通过社会技术视角,组织可以通过“准确性、可解释性和可理解性、隐私、可靠性、稳健性、安全性和安全弹性”来培养信任。他们的一项建议是让组织实施或改进他们的测试、评估、验证和验证(TEVV)流程。在给定的数据集或经过训练的模型中,应该有一种方法可以从数学上验证偏差。他们还建议让不同领域和职位更多地参与AI开发工作,并让来自不同部门或组织外部的多个利益相关者参与进来。“human-in-the-loop”模型,其中个人或集体不断纠正潜在的ML输出,也是消除偏见的有效工具。除了这些和修订后的报告之外,还有NIST的人工智能风险管理框架(AIRMF),这是一套由共识驱动的建议,用于管理AI系统中涉及的风险。一旦完成,它将涵盖人工智能技术和产品的透明度、设计和开发、治理和测试。AIRMF的初始评论期已经过去,但我们仍有很多机会了解AI风险和缓解措施。
