我们也谈了很多AI歧视,比如外貌偏见、语言歧视等等,但AI歧视显然不仅仅局限于这个表面领域。在它的外表和语言歧视的背后,站着的其实是AI对这个社会方方面面的片面判断。那么,AI判别问题就不是简单的算法问题了。今天我们就来谈谈人工智能的偏见问题,以及面对它我们能做些什么。人类是始作俑者:人工智能歧视的根源首先,我们需要明确人工智能歧视的原因。目前一般有两个方面。1.数据和算法的局限性。首先是数据限制。AI对事物的判断不是凭空或随机得来的,它必须经过一系列的训练和学习。那么,如果要训练它在某一方面的能力,就需要收集相关领域的数据,让它去学习。对此,如果数据训练量不足,会导致AI学习不完全,可能会做出错误的判断。数据限制的另一个方面来自数据本身。比如某个群体有一些共同特征,那么AI就会把这些共同特征数据中的大部分作为标签。一旦对象不属于这个群体的特征,或者属于这个群体的少数特征,就有可能采取否定的态度。二是算法的局限性。当程序员设置人工智能学习程序时,他们无法过滤掉每一条负面信息。因此,AI在从大量数据中学习后,会自动匹配不同群体之间的关键词,然后做出判断。例如,职业中的性别差异。事实上,我们目前面临的所有AI歧视问题,基本上都围绕着这两个方面展开。数据学习不够,或者数据学习足够后,学习范围超出程序员设定的内容,然后开始自学习和判断。这会导致歧视行为。2.人类固有偏见的强化。但人工智能歧视问题的根源不在于数据和算法。在某种程度上,AI的歧视其实是人类偏见的体现和强化。人类善于在言语上保持克制,或者在交流中表现出表面上的礼貌。随着时间的推移,人们似乎将隐藏对他人的偏见视为一种美德。问题就变成了,你心里有没有歧视都没有关系。如果你表面上做得很好,那你就是一个好人。在这方面,慈善组织与丑闻的反差尤为突出。AI出现的意义之一就是打破了人们维持在表面的自我欺骗,把那些人们刻意隐藏的、看似隐藏得很好的东西带了出来。这就是外表,为什么说是强化呢?首先,AI学习是一个淘汰的过程,比如图像的语义分割。要找到眼球,首先要对图像进行分割,拒绝其他不适合眼球的东西。同样,招聘到合适的员工,也是剔除不合适选项的重点。否定的过程就是强化的过程。二是基于AI的特殊属性。人工智能是历史上第一个拥有自己判断能力的人造物。当它违反了人类为维持表面友好而设定的一些规则时,人们一方面感到惊讶,另一方面也会受到启发。仔细看看你自己。无情的斩断了人类的面子,自然而然的获得了更多的关注。算法的局限性和人类固有观念的强化,或许可以解释人工智能歧视猖獗的原因。人工智能歧视不仅种类多,影响也可能很大。如果我们只是被AI歧视,并且知道它的歧视是算法和人的问题造成的,那就大可不必担心。毕竟歧视无处不在,而且心理足够强大,任何歧视都不足以造成火灾伤害。论无耻的自嘲精神,似乎无人能与现代人相提并论。然而,当AI不仅歧视你,还对你做出判断,决定你的生活、工作、地位……,你还能无视它的歧视吗?比如现在很流行一个概念,用AI做招聘。从理论上讲,它可以从现有员工档案中学习,筛选出最能满足公司需求的新员工。对这些员工进行标记和分类是学习的一部分。能力强、口才好、实习经验丰富的可能会被筛选出来。标签呢?例如,这些人中可能男生较多,可能认为女生不适合这份工作;如果城市户口多,农村户口可能会被筛选掉;如果23岁之前的人多了,23岁之后的可能会被认为不合适……你看,就这几个方面,就已经涉及到性别歧视、地域歧视、年龄歧视了。虽然人们开发人工智能招聘是为了避免面试官根据主观印象决定是否留下,但过于客观的人工智能招聘也会引发一些值得思考的问题。另一个例子是在警察工作中部署人工智能。最近提到最多的是使用人工智能来帮助识别甚至预测罪犯。例如,去年上海交通大学的一篇论文提出,可以通过分析一个人的外表来判断这个人是否有犯罪倾向。简单来说,就是看你有没有“囚徒脸”。美国警方近期也尝试部署警务系统,预测犯罪发生的人员和地理区域,进而有针对性地加强监视。英国在预防犯罪方面采取了类似的做法。当然,也有严重的问题。看“脸”就能识别罪犯?外貌歧视虽然一直存在,但基本都是基于五官的缺陷。现在它已经升级了。美国预测的犯罪往往集中在黑人和黑人集中的地区,这是不可接受的。尤其是在美国这样的国家,歧视黑人是非常忌讳的,即使AI不是个人,此举也会招来人们的反感。更不用说英国了,他们的监控系统运行一段时间后,专门针对穷人,不得不紧急下线。从这几个案例中,我们发现AI仍然存在外貌歧视、种族歧视、贫富歧视。另外,AI的歧视依然存在于各行各业,未来的某一天我们可能真的会像《黑镜》那样戴上隐形眼镜,然后就能看到对面来人的安全识别眼镜。安全性高不一定安全。很有可能是被创造出来的?也就是说,AI歧视是一个综合性的东西。问题又来了:是不是因为这个我们才不得不放弃AI?我们人类就这么玻璃心吗?当然,放弃AI也不现实。这是一种因窒息而放弃食物的行为。毕竟,它仍在深刻地改变着我们的社会。然而,随着人工智能的大规模应用,减少甚至消除人工智能的偏见已经迫在眉睫。AI歧视的解决方案谷歌数据库被发现存在明显的性别歧视。比如一个简单的问答,巴黎:法国,然后东京:X,系统会给出X=日本。如果是“父亲:医生”,则对应“母亲:护士”;《男:程序员》、《女:家庭主妇》等等。研究人员创造了一种“硬纠错”方法。简单点说,就是把系统判断出来的对应关系放到一个论坛平台上去发布,问是否合适。如果一半的人认为不是,那么这个类比就不成立了。这种方法进行了一段时间后,AI分词的提升效果非常显着。这种方法虽然有效,但显然只能适用于一些数据范围较小的方面。比如在某公司的招聘中,可以在招聘前对AI进行训练,然后找出问题所在,然后用这种方式进行硬纠错。但如果你想用它来解决AI的所有问题,就有点不现实了。哥伦比亚大学的研究人员开发了另一种方法。深度学习研究的进展是人工智能复兴的重要因素,但人工智能的黑匣子问题仍未解决。因此,这些研究人员试图通过打开黑匣子来理解为什么人工智能会做出一些错误的决定。他们开发了一种名为“DeepXplore”的软件,可以诱使系统暴露其在神经网络中的缺陷。该软件激活了系统中几乎100%的神经元,允许整个神经网络扫描错误。其他人建议编程来解决问题。但从根本上说,人类应该以人工智能的歧视为镜,仔细审视自己在社会活动中埋下的祸根。从而不断减少实际意义上的歧视和偏见。只有学习的内容消失了,AI才能避免歧视的问题。但我们仍然要注意的一个问题是,用“偏见”和“歧视”来概括所有对人工智能的“区别对待”是不恰当的。人类发展到现在,不同的职业对人的要求也是不同的。男耕田女织布,这实际上反映了历史上长期发展后的自然分工。那么,在处理AI歧视问题时,并不是简单的算法修正,它还涉及到社会学、经济学等多个方面。这样看来,我们要解决AI的歧视和偏见,可能还有很长的路要走。目前能做的,就是将生死之权交给人类。
