大数据文摘作者:米奇英国《每日邮报》6月27日发布的一段视频突然在脸书上走红,却引起了关注原因是不是因为视频本身,而是因为它被标记的“标签”:这是一个关于黑人的视频,但是所有观看该视频的用户都会收到一个提示,询问他们是否要“继续观看有关的视频”灵长类”。前Facebook内容设计经理DarciGroves在推特上发布了这一发现,并迅速引发了愤怒。随后,脸书迅速将推荐下线,并公开道歉。“这显然是一个不可接受的错误,我们在意识到这种情况发生后立即禁用了整个主题推荐功能,以便我们调查原因并防止这种情况再次发生,”Facebook发言人DaniLever告诉《今日美国》陈述。“正如我们所说,虽然我们对人工智能进行了改进,但我们知道它并不完美,我们还有很大的改进空间,”她说。“我们向可能看到这些攻击性内容的任何人道歉。”争议:人类不是灵长类动物吗?不过事发后,相关社区也有人表示,没有必要过于敏感。毕竟人类是灵长类动物的一种,AI的判断没有问题。社区里也有黑人程序员兄弟,不要太敏感,“我个人同意承认黑人的肤色在视觉上更类似于一些非人灵长类动物的图像,并且可以理解为什么这个问题是这不是程序员的偏见,而是一个复杂的计算机视觉问题,计算机很容易发现相似之处,但很难训练神经网络来理解为什么图像彼此相似但不相关。”反对者认为AI会简单地反馈给学习数据这样的标注结果也反映了Facebook整体标注系统的一个重大问题,而且根据Facebook自己的说法,其人工智能是使用用户上传的图片进行训练的,毕竟这不是这不是Facebook的AI系统第一次出现这种“种族主义”问题。科技公司“种族主义”问题的坎坷近年来,Facebook在算法“去种族偏见”上付出了不菲的代价,过程也颇为坎坷。早在2018年,该公司就被曝出允许广告商在住房、就业等行业投放广告时将某些少数群体排除在外的丑闻。Facebook当时也用“技术”口径来回避相关问题,比如不按种族而是按所谓的“多元文化主义”对用户进行分类。因此,Facebook在种族问题上一直持比较谨慎的态度,也为此做了很多努力。去年7月,TheVerge报道称,Facebook正在组建一个新的内部团队,专门研究其主要社交网络和Instagram中的种族偏见,特别是其使用人工智能训练的算法是否会歧视黑人、西班牙裔和其他少数群体。产生不良影响。一位Facebook发言人当时告诉TheVerge,该团队将“负责确保我们所做的一切都存在公平公正的产品开发。”“我们将继续与Facebook负责任的人工智能团队密切合作,以确保我们关注各自平台上的潜在偏见。”不过,从目前的结果来看,Facebook引以为豪的这次整改影响是非常显着的。有限的。当然,Facebook并不是唯一一家因其自动化系统中的种族偏见而受到抨击的科技公司。2015年,谷歌就在其应用程序中将黑人错误识别为“大猩猩”而道歉。然而两年后,有媒体发现谷歌的解决方案非常简单粗暴,直接从搜索结果中删除相关标签,即禁止将任何图片标记为大猩猩、黑猩猩或猴子。Google这种“宁误杀千,不放过一个”的做法或许有些残酷,但也在一定程度上说明了图像分类这个看似简单的能力还是存在着比较大的问题。要实现真正的人工智能,我们还有很长的路要走。【本文为栏目组织大数据文摘原创翻译,微信公众号“大数据文摘(id:BigDataDigest)”】点此查看作者更多好文
