当人们欢呼人工智能进入人类生活的方方面面,对人工智能可能让人类进入新文明时代充满无限美好憧憬时,新的担忧却又产生了:人工智能他们也会像人类一样,有各种各样的偏见和歧视。
而且,这种偏见和歧视是与生俱来的,是人类教给他们的。
英国媒体近日发表文章指出,计算机在学习人类语言时,吸收了人类文化中根深蒂固的观念,从而产生偏见和歧视。
在人们努力实现社会公平正义的当下,人工智能如果出现偏差,就无法更好地完成其替代人类工作、服务人类的任务。
这是人工智能应用面临的又一巨大挑战。
如果这个挑战不能解决,显然就不可能对人工智能寄予厚望,赋予它更大、更艰巨、更崇高的使命。
人工智能领域的偏见和歧视早已引起人们的关注。
一个典型的例子就是微软于2019年3月23日推出的人工智能聊天机器人Tay,设计的初衷是让她成为一个能帮助用户解决问题的贴心小女孩。
然而,上线第一天,Tay就变成了一个满口脏话的种族主义者,发表了很多关于白人优越感的言论,甚至还成为了希特勒的粉丝,想要发动一场种族灭绝战争。
微软见状,立即将 Tay 下线,并删除了所有不当评论。
训练结束后,Tay于2018年3月30日再次上线,但旧病复发,不得不再次下线。
现在,杂志上发表的一项研究(2018年4月14日)揭示,人工智能的错误源于人类。
普林斯顿大学信息技术政策中心的计算机科学家阿尔温德·纳拉亚南 (Arvind Narayanan) 等人使用“爬虫”软件在线收集了 10000 个单词的英文文本,用于训练机器学习系统。
该系统使用“文本嵌入”技术,这是一种常用于机器学习和自然语言处理过程的统计建模技术。
它还包括内隐联想测试(IAT),心理学家用它来揭示人类偏见。
文本嵌入的核心是使用一种称为词表达全局向量的无监督学习算法。
它是根据词汇库中词与词共现的统计结果进行训练的。
在处理词汇时,主要根据各种因素观察单词之间的关系。
词之间的相关性,即不同词一起出现的频率。
结果,与人类语言中使用的语义组合和连接场景类似的语义组合和连接场景出现在最相邻的相关词上。
一个相对中性的结果是,鲜花与女性相关,音乐与幸福相关;但极端的结果是,懒惰甚至犯罪都与黑人联系在一起;隐藏的“偏见”将妇女与艺术、人文事业和家庭联系在一起。
更接近,让男性更接近数学和工程专业。
其实,这不能归咎于人工智能,而是归咎于人类。
人类自诞生以来,在进化过程中就充满了偏见。
而且人类社会形成以来,就充满了相当多的消极性和人性的弱点,这些都会在人类文化中得到体现。
文化的载体是语言,所以一切偏见都可以从语言和语义中找到根源。
教人工智能更加客观公正,至少比人类更加客观公正,目前看来很难实现。
因为人类文化中的偏见和歧视是与生俱来的“原罪”,人类要么可以在摆脱自身原罪后教导人工智能更加公正客观,要么可以引入社会监督相互强化的原则来教导人工智能。
监督机器公平公正。
当人类设计开发的人工智能不足以更加客观、公平、公正(正义)时,人工智能的应用可能会受到限制。
例如,如果使用人工智能来处理招聘,就会像人工完成一样显得不公平,甚至更多,因为如果申请人的名字是欧洲裔美国人,他将比非洲裔美国人获得更多的面试机会。
男性姓名的申请人获得面试的可能性也比女性姓名的申请人高出 50%。
即使人工智能记者(写作软件)可以写文章,由于偏见的存在(特别是语言使用、语义联系、联想不可避免地造成的偏见),机器人只能写金融统计方面的文章,而不能写你不能写调查稿,更不能写评论稿,尤其是有关辛普森案的稿件,否则字里行间就会体现出偏见和歧视。
当人工智能自然学习人类偏见和歧视的弱点无法克服时,我们就不能对人工智能的发展前景抱有太高的期望。