当前位置: 首页 > 科技观察

人工智能:打击种族主义的下一个前沿领域?

时间:2023-03-16 02:00:02 科技观察

乔治·弗洛伊德惨遭谋杀震惊世界才过去三个月。白人警察跪在黑人公民身上长达8分46秒的画面,在美国人的集体记忆中还历历在目。这不是美国第一起种族主义警察暴行。不幸的是,这也不会是最后一次。种族主义在这个国家根深蒂固。这是一个化脓的伤口,要么被忽视,要么用传染性药物治疗。美国的制度性种族主义没有尽头,更糟糕的是,这种疾病正在寻找新的传播途径。即使是被认为是现代历史上最伟大的技术突破之一的人工智能,也继承了社会上普遍存在的一些偏见。人工智能可以有偏见吗?在早期,说计算机程序有偏见似乎很荒谬。毕竟,为什么任何软件都会关心某人的种族、性别和肤色?但那是在机器学习和大数据使计算机能够做出自己的决定之前。算法现在正在增强客户支持,重塑当代时尚,并为从法律和秩序到城市管理的一切都可以自动化的未来铺平道路。Namobot的MichaelReynolds解释说:“我们有一个非常真实的AI反乌托邦机会,它使用大数据和算法来生成博客标题。“包含人类解释和认知评估的错误数据集允许机器学习模型将人类偏见转化为算法。”它并不遥远,但它已经发生了。算法偏差的一个不幸例子风险评估工具通常用于刑事司法系统,以预测重罪犯再次犯罪的可能性。从理论上讲,这种少数派报告类型的技术用于阻止未来的犯罪。然而,批评者认为这些项目伤害了少数群体。ProPublica在2016年对其进行了测试,当时它检查了7,000多人的风险评分。该非营利组织分析了两年多来在佛罗里达州布劳沃德县被捕的囚犯的数据,以了解谁在随后几年被指控犯有新的罪行。事实证明,很多人已经多虑了。根据该算法,黑人被告犯罪的可能性是白人被告的两倍。但事实证明,预计只有20%的人会从事犯罪活动。同样,警察使用的面部识别软件最终对非裔美国人产生了不成比例的影响。根据美国联邦调查局(FBI)与人合着的一项研究,西雅图等城市使用的面部识别可能对黑人不太准确,导致错误识别和错误逮捕。算法偏差不仅限于司法系统。改善对复杂疾病患者的护理的计划经常拒绝黑人。同样,这些程序不太可能将黑人患者转介给黑人患者,而不是针对相同疾病的白人患者。简而言之,科技公司正在将自己的偏见注入系统。精确的系统旨在做出公平的、基于数据的决策。那么,您如何解决这种情况?透明度是关键算法偏差是一个复杂的问题,主要是因为它难以观察。程序员经常困惑地发现他们的算法会根据性别和肤色歧视人。去年,史蒂夫·沃兹尼亚克(SteveWozniak)透露,苹果给他的信用是他妻子的10倍,尽管她的信用评分更高。消费者很少注意到这种差异。检查人工智能中部分歧视的研究也是时间和资源密集型的。因此,倡导者呼吁提高整个系统运作方式的透明度。这个问题应该在整个行业范围内得到解决,但在此过程中仍然存在障碍。即使发现算法存在偏差,公司也不允许其他人分析数据,调查也不够彻底。Apple表示会调查Wozniak的问题,但到目前为止还没有任何结果。提高透明度将要求公司向观察员披露他们的培训数据或接受第三方审计。程序员还可以选择主动测试以确定他们的系统在应用于属于不同背景的个人时将如何工作。为了确保一定程度的透明度,用于训练AI的数据和用于评估它的数据应该公开。在政府事务中,应该更容易做到这一点。然而,企业界会拒绝这个想法。数据多样性根据纽约大学研究中心发表的一篇论文,人工智能缺乏多样性已经到了“思考时刻”。研究表明,出于这个原因,AI领域绝大多数是白人和男性,因此有可能重新建立权力不平衡和历史偏见。报告作者凯特·克劳福德解释说:“人工智能行业必须承认形势的严重性,以及其现有解决这些问题的方法的失败。”由于Facebook和微软都有4%的黑人劳动力——很明显,少数族裔在AI领域的代表性并不公平。研究人员和程序员是具有某些特权的同质群体。如果资源池是多样化的,那么数据将更能代表我们所居住的世界。算法将获得目前被忽视的观点,人工智能程序的偏见将大大减少。总结是否有可能创建一个完全无偏见的算法?可能不会。人工智能是人类设计的,人永远不会真正有偏见。但是,来自优势群体的个人创建的项目只会助长对少数群体的不公正待遇。为了确保算法不会成为压迫黑人和西班牙裔社区的工具,应该推动公共和私人机构提高透明度。大型技术也必须多样化,并提升属于少数群体的程序员。这样的举措可以使我们的社会免于成为人工智能的反乌托邦。