当前位置: 首页 > 科技观察

AI崛起:科技公司需要“首席偏见官”

时间:2023-03-11 22:53:25 科技观察

皇家历史学会最近透露,其第一项使用人工智能算法的研究揭示了英国劳动力中的“巨大性别偏见”。基于人工智能的系统搜索了整个英国的互联网,以检查现有男性和女性工作的分布情况。该研究调查了108个不同的经济部门,发现其中87%存在偏向男性的不平等现象,导致男性担任高层领导职位的比例过高。这项开创性的研究是人工智能解释我们世界的潜力的一个很好的例子。毕竟,人工智能的强大功能之一就是分析极其大量的数据,并从中找到我们人类无法发现的模式。但是,虽然人工智能可以帮助发现偏见和不公正,但它实际上会导致更多的偏见和不公正。考虑以下示例:加纳裔美国计算机科学家JoyBuolamwini(https://twitter.com/jovialjoy?lang=en)现在是麻省理工学院媒体实验室的罗德学者和研究员,发现她的人工智能面部识别系统正在使用无法识别她的脸。而只有戴上白色面具后,系统才能确认她的存在。在Buolamwini的案例中,面部识别系统无法识别她的身份,因为用于训练软件的数据池主要是白人面孔,缺乏足够的多样性。换句话说,问题始于数据本身,人工智能系统必须从这个有缺陷的数据集中学习。随着系统越来越“智能”,问题会挥之不去。事实上,真实的系统会变得更笨,因为偏见本身会强化偏见。Buolamwini发起了算法正义联盟(https://www.ajlunited.org/)计划,旨在提高人们对AI偏见的认识,并培训组织实施AI实践。Buolamwini希望利用该计划推动以更公平、更合乎道德的方式对待人工智能,这一使命在人工智能驱动决策的时代尤为重要。公司不仅必须重新定位数据集和算法培训,还必须重新定位围绕AI的流程和人员。(图片:美联社)有偏见的人工智能还扩展到其他领域,例如刑事司法、招聘和招聘等。IBM发表的一份研究报告提出,已经定义和分类的人类偏见多达180种,每一种偏见都会干扰判断,影响最终决策。人工智能可以轻松复制这些偏见。假设一家公司要用人工智能来确定员工的工资。设定薪资的标准部分基于薪资历史。这可能会使女性处于相当不利的地位(https://www.brookings.edu/blog/techtank/2019/01/03/artificial-intelligence-and-bias-four-key-challenges/),基本上是因为她们一直过去被歧视。再比如,推荐引擎也会学习用户的喜好,做出相应的建议。组织如何确定他们和他们的人工智能系统所依赖的数据确实是合适的,而不是强化歧视模式?与许多其他问题一样,克服问题首先要承认它的存在。企业不仅要重新定位数据集和算法训练,还要重新定位围绕AI的流程和人员。解决这些问题对于我们实现更公平的工作场所的愿望至关重要。我们必须有专门的团队和流程,甚至可能设立一个像“首席偏见官”这样的职位,其职责是审查数据并确保严格的道德标准。人工智能工具将越来越多地成为我们工作环境的一部分。大众化,他的使命是打击偏见和成见。例如,他可以通过推动多元化来影响工程团队的聘用,然后定期检查工程师用于AI算法的数据输入。这是“人民就是政策”的一个例子。重要的是要认识到人工智能并非万无一失,糟糕的输入意味着糟糕的输出。他需要定期进行性能评估,并对可搜索算法的输出进行控制测试和持续微调。组织需要确保使用多种上下文,以防止出现扭曲和盲点。Buolamwini本人建议组织检查具有不同偏见集的算法,并且一系列不同的观点可以加强这项工作,减少有偏见的数据并确保更公平的算法代码。解决算法偏差需要管理层、人力资源和工程师的共同努力,以有效地将有意识和无意识的人类偏见排除在系统之外。人类的愚蠢永远无法完全消除,但通过了解人类的愚蠢,我们可以构建更公平、更智能的人工智能系统,真正让我们的职场决策更少人为,更智能。