人工智能正在发挥作用。
今天,路透社爆料称亚马逊使用人工智能进行招聘,可能会导致对女性的歧视。
对于一直追求智能化的亚马逊来说,AI技术在仓储物流管理中的运用还远远不够。
因此,今年推出的AI招聘原本是亚马逊探索进一步智能化的一次实验,但结果却出了问题。
。
亚马逊开发团队最初的想法是利用AI筛选求职者的简历,更精准地找到匹配的顶尖人才,减少人力,让招聘更加智能。
在使用这个实验性招聘工具的过程中,他们利用人工智能对求职者进行评分,评分从一星到五星不等。
开发该程序的工程师表示,亚马逊希望将该程序构建成一个引擎。
如果你给该计划一份简历,它会列出前五名的人员,并会雇用列出的人才。
听起来很酷,对吧?然而,人类计算不如人工智能计算。
使用该工具后不久,亚马逊发现它在使用其人工智能系统时没有对软件开发人员和其他技术职位的申请人进行性别中立的评估。
这里有两个可能的问题。
一个是样本问题,另一个是AI系统的巨大bug。
需要注意的是,亚马逊对该系统使用的模型训练方法是识别过去10年提交给亚马逊的简历中的固有模式,以筛选和审查求职者。
而问题来了——在过去的10年里,提交给亚马逊的简历大部分来自男性,这导致亚马逊用来告诉自己男性申请者更受青睐的AI系统。
亚马逊是否歧视女性?还是人工智能存在歧视?我们认为,这涉及三个因素。
首先,向亚马逊提交的求职者大部分是男性申请者,这与科技行业长期以来偏爱雇用男性员工有关。
恐怕科技行业本身就存在“误解”,认为男性更有能力,而女性则更有顾虑。
其次,在提交的样本中,亚马逊的系统使用了特殊的标志来专门标记“女性”,这无意中对样本造成了“性别歧视”。
最后,尽管亚马逊对其人工智能招聘程序进行了修改,但它试图确保在具体条款上保持中立。
但事实上,这并不能从根本上、客观地平等地呈现筛查结果。
换句话说,亚马逊的AI招聘系统存在“先有鸡还是先有蛋”的哲学困惑。
如果不添加标签进行过滤,势必无法实现精准匹配;但如果要实现一视同仁,不同领域的歧视就不可避免地会出现。
可能是性别,可能是学校,甚至可能是个人兴趣和生活习惯。
不管怎样,AI都逃不出这个锅。
这并不是人工智能第一次涉及性别歧视。
今年夏天,据国科网报道,博士生赵杰宇。
弗吉尼亚大学计算机科学系的学生,研究人工智能和机器学习,她收到了导师 Vicente Ordóez 给她的一个项目。
本主题是关于模式识别人工智能,它总是将男性识别为女性。
在计算机视觉技术相对成熟的情况下,这似乎有点不可思议。
有趣的是,人工智能认知错误有一个共同点:这些被误认为女性的男性要么站在厨房里,要么在做家务。
这显然不是程序的bug,而是AI算法本身的问题。
它会自动将女性与某些元素联系起来。
例如,站在厨房做饭的人必须是女性,这最终形成了对女性的“刻板印象”。
刻板印象”,甚至某种性别歧视。
微软也发生了类似的事情。
他们之前在 Twitter 上推出了 Tay,一个针对女孩的聊天机器人。
微软的初衷是让女孩子可以和大家在线聊天,学习如何沟通。
然而,Tay 在聊天中学会了如何沟通。
脏话,比如咒骂女权主义者、支持纳粹、种族歧视……技术本身是中立的,但追根溯源,AI也从我们普通人身上“学到”了偏见或歧视。
当我们训练人工智能模型时,大量的数据标注结果告诉AI,含有这些元素的98%都是女性。
最终,性别偏见不仅在数据库中普遍存在,而且还会被人工智能放大。
换句话说,技术人员利用大量数据看似训练??“准确”的算法,但他们缺乏对数据背后社会现状的思考。
然而,有一些方法可以避免这种现象。
就像人类的认识一样,我们可以在学习和社会化的过程中形成合理的甚至政治正确的价值观。
同样,对于AI,我们也有“纠错”的方法。
我们认为:1、加大原材料的纯化力度,尽可能减少样本数据库的偏差,包括扩大样本的范围和多样性,扩大数据库。
2、增加样本的现实影响因子。
现实维度是反映社会价值取向、态度和引导方向的基础。
为训练算法创建更好、更多样化的数据集,从样本数据层面减少算法中可能出现的偏差。
3.使用技术方法来弥合算法的偏差,例如开发一个系统来检测有偏差的决策并及时采取措施,例如使用贝叶斯方法来确定某个假设的概率并消除可能存在的人为偏差。
4、最关键的一点是解决AI歧视的本质问题,就是人的改变。
只有改变现实社会样本数据的弊端,才能从源头上解决算法歧视问题。
机器有时需要学会思考如何消除人类对它们的错误影响。
剑桥大学未来研究所教授鲁恩·尼鲁普曾表示,“事实上不存在技术中立性。
对于机器来说,中立性占主导地位。
”而且,我们现在的人工智能还远远没有达到理解真善美假恶丑的“抽象”水平。
算法歧视,AI不会背锅。