当前位置: 首页 > 科技观察

学坏容易,学好难!人工智能将继承人类的种族和性别偏见

时间:2023-03-16 17:46:19 科技观察

编者按:Sunstein在《网络共和国》提出算法影响我们的认知世界,并在《信息乌托邦》中首次明确提出算法使人形成“信息茧”的危害”。这就是算法对人脑的影响,而算法应用于人工智能,也让人工智能存在偏见——因为语言本身就有偏见,人工智能通过算法学会了,人工智能甚至可能强化这种偏见.但这是否是一件坏事值得探讨。得益于新的机器学习技术和可用于测试算法的大量在线文本数据,谷歌翻译等程序在过去几年中在语言翻译方面取得了快速进步。人工智能(AI)工具彻底改变了计算机翻译日常语言的能力,但也表现出明显的性别和种族偏见。根据?期刊上的***研究,随着机器更容易学习类人语言能力,它们也学习了更多根深蒂固的语言应用范式偏见。随着越来越多影响我们日常生活的问题被交给机器人来做决定,现有的社会不平等和偏见以新的和不可预测的方式得到加强,这一发现造成了这个令人难以忘怀的噩梦。随着机器越来越有可能获得类似人类的语言能力,它们也变得更容易学习语言应用范式中根深蒂固的偏见。图片来自:KTSDesign/GettyImages/SciencePhotoLibrary巴斯大学的RF计算机科学家JoannaBryson和该论文的合著者说:“许多人认为这表明人工智能存在偏见。事实并非如此,它表明我们有偏见是的,人工智能正在学习这种偏见。”但布赖森也警告说,人工智能有可能强化现有的偏见,因为与人类不同,算法无法有意识地抵制习得的偏见。“危险在于人工智能系统不受道德驱动,一旦你拥有这样的系统,它就很糟糕,”她说。“词嵌入:捕捉词背后的文化和社会语境意义”论文侧重于机器学习工具,即“文本嵌入”,这是一种机器学习工具,它改变了计算机翻译语音和文本的方式。有人声称,下一个自然步骤是让机器发展出类似人类的能力,例如常识判断和逻辑。“我们选择研究文本嵌入的主要原因是,过去几年帮助机器理解语言的努力取得了惊人的成功,”普林斯顿大学计算机科学家、该论文的资深作者ArvindNarayanan说。该方法已应用于网络检索和机器翻译,通过构建语言的数学表示来工作。在这个数学表达式下,单词和它们经常出现的含义被抽象成一系列数字(即向量)。令人惊讶的是,算法似乎以一种连字典都无法定义的方式捕捉到一个词背后丰富的文化和社会背景。例如,在数学“语言空间”中,“花”这个词总是与具有积极意义的词联系在一起,而“昆虫”这个词则相反,反映了人们对昆虫和花朵不同价值的共同看法。***论文表明,人类心理学实验中一些比较麻烦的隐性偏见也可以很容易地被算法学习到。“female”和“female”更可能与艺术和人文学科的工作和家庭相关,而“male”和“man”与数学和工程工作相关。同时,AI系统更有可能将欧裔美国人的名字与正面词语相关联,例如“有天赋”或“快乐”,而非洲裔美国人的名字通常更可能与贬义词相关联。这一发现表明,人们(至少在英国和美国)在隐性联想测试中将正面词语与白人面孔联系起来,并且算法会发现这种偏见。这些偏见会对人类行为产生深远影响。研究表明,与简历相同的非裔美国人名字的候选人相比,拥有欧裔美国人名字的候选人被邀请参加面试的可能性高出50%以上。***结果表明,除非明确编程,否则算法将充满相同的社会偏见。“如果你不相信名字和种族主义之间存在联系,那么这里就是证据,”布赖森说。在这项研究中,机器学习工具针对一个名为“网络爬虫”的数据库进行了测试——该数据库是在线出版材料的集合,包括8400亿个单词。使用谷歌新闻数据进行测试也得到了类似的结果。算法提供了应对偏见的机会牛津大学数据伦理和算法研究人员桑德拉·瓦赫特说:“世界是有偏见的,历史数据是有偏见的,所以我们得到有偏见的结果也就不足为奇了。”她补充说,“算法不是代表威胁,而是提供了解决偏见的机会,并在适当的时候消除它。”“至少我们可能会在偏见发生时了解它,”她补充道。说,“另一方面,人类可以对他们为什么不雇用某人撒谎。相比之下,我们不必期望算法对我们撒谎。”但Wachter声称,未来的挑战是如何从算法中消除不合理的偏见。此外,它还保留了强大的翻译能力,毕竟算法是为理解语言而设计的。“从理论上讲,我们可以建立系统来检测有偏见的决策并采取行动,”Wachter说,他与其他人一起呼吁对人工智能进行监管。这是社会不可推卸的责任。”