本文转载自公众号《核心阅读》(ID:AI_Discovery)。许多人对AI充满热情,因为它可以实现自动化,在游戏中击败人类,并提高人们的整体生活水平。这当然是不争的事实,但人工智能仍然存在缺陷甚至危险,这可能是人为的,也可能不是人为的。时至今日,人工智能扰民或危及生命的事件仍不胜枚举。这怎么发生的?未来,人工智能会越来越流行。它有哪些潜在特征会对社会造成破坏?人工智能算法缺陷存在很多道德缺陷,它们滋生了伦理问题。很多是因为训练数据的偏差,为了建立信息反馈循环模式。举一些例子看看这些小错误如何影响真实的人。1.人脸识别训练数据有偏差想象一下,有一天,你放学回家,警察拿着逮捕令出现,给你戴上手铐,带你去看守所。在家人和邻居的注视下,您不知道自己做错了什么。到了派出所,他们搜身,打指纹,拍照,关在肮脏的牢房里过夜。你只是坐在那里等待,想知道你为什么被抓到。罗伯特·威廉和他的家人|资料来源:DetroitFreePress这就是发生在罗伯特身上的真实情况。他是一名在美国法明顿希尔斯被无故逮捕的黑人。民警在审讯时,拿出一张黑人男子在店内偷东西的照片。威廉否认在那里并且他不在照片中。另一张照片是窃贼的特写照片,他看起来一点都不像威廉。他说:“不,不是我。你认为所有的黑人看起来都一样吗?”为什么警察会抓错人?这就是算法问题。警方使用人工智能搜索嫌疑人,但这显然是错误的。AI怎么会出错,不是应该很准吗?是的,人工智能通常是准确的,但前提是训练没有问题。威廉被视为嫌疑人的主要原因是训练数据存在偏差。面部识别系统对白人来说还算公平,但对少数群体来说就不太准确了。因为使用的数据集主要是白人脸和其他少数几个群体的人脸,所以对黑人的识别度较低。人脸识别精度差距|来源:FastAILesson5虽然“深色皮肤男性”的识别度较高,但在深色皮肤和浅色皮肤,尤其是“深色皮肤女性”的识别度上还有很大差距。这些成就属于尖端科技公司,也许不是警方使用的那些。2.YouTube的反馈系统这个网站大家肯定都看过。您会在主页上看到有趣或流行的视频。一个小时后,你还在这个页面,只是不知不觉看了更多的视频。这就是推荐系统的作用,它会提供让你在页面停留更长时间的视频,从而获得更多的广告利润。你可能会想:“那如果我在那个平台上停留更长时间呢?它不会伤害任何人。”不,此推荐算法可能会导致反馈中出现有害内容。YouTube的AI反馈循环有一个非常可怕的问题:“该网站的推荐算法让恋童癖者更容易在特定视频的评论部分找到或分享儿童色情内容。这一发现在很多方面都令人震惊。不仅仅是视频被货币化,推荐系统也在不断地向成千上万的用户推荐儿童视频。”反馈循环还可以创建一个整体模式,观众可能会继续看到他们不想看到的内容。反过来,有些人永远不会听从反对的声音,从而导致两极分化。此外,这样的系统会助长阴谋论。尽管两极分化,但它会让那些对阴谋论略有兴趣或半信半疑的人信服。越来越多的视频被推荐给你看,它们都传达了同样的信息。资料来源:unsplash3。人工智能导致就医时间缩短2016年,阿肯色州的医疗系统应用了一种新的算法。该算法旨在更好地为医务人员分配资源和时间,结合多个因素来确定每位患者需要多少帮助。但是,提高护理效率也意味着减少许多人的护理时间,而这些人通常是最需要帮助的人。资料来源:TheVerge软件不会为糖尿病患者或脑瘫患者提供服务,此问题是由于错误和某些错误代码造成的。然后是伦理问题,我们是否应该使用人工智能来确定病人的健康状况?为什么这个状态在不知道或检测错误的情况下使用算法?这个例子来自TammyDoub。塔米·多比(TammyDobbe)在多年脑瘫后于2008年搬到了阿肯色州。她需要很多帮助,无法自己移动到轮椅上,双手僵硬。正因为如此,该州的医疗保健机构为她分配了最长的护理时间,每周56小时。来源:TheVerge阿肯色州医疗系统应用AI算法后,这一切都改变了。Dob的看病时间从56小时缩短到32小时!只有原来时间的56%!这种减少显然对她的生活产生了巨大的影响。人工智能的不当使用还有一些例子说明人工智能是如何被故意用于不道德的行为,这比非人类代码错误更可怕!1.IBM和大屠杀是的,IBM在二战大屠杀中帮助纳粹进行了大屠杀。你可能会好奇:“二战有AI撑腰?”可以说是神似。IBM当时开发了一套用于分类的制表功能。它不仅仅是一个简单的拆分卡片和排序卡片的算法,而是一个更复杂和维护密集型的工具,而不是你通常认为的人工智能。话虽如此,我仍然认为讨论技术的滥用很重要,无论是人工智能还是非人工智能。图中希特勒坐在IBM首席执行官旁边。|资料来源:卫报。先回顾一下这台机器是怎么工作的:会给你一张打孔卡,需要插入;机器会读取信息,保存,最后输出数字;这些数字代表人们将前往哪个集中营、囚犯类型以及他们将如何死去。一位名叫霍华德卡特的经济战首席调查员写道:“希特勒的经济战,我们(美国)的一家公司也是这样做的。所以IBM和纳粹是一类人,整个世界都被国际怪物包围了。打压”2、换脸也是一种人工智能。它使用对抗生成网络(一种深度学习模型)生成令人难以置信的逼真图像、视频,甚至音频。仅仅为了好玩而使用换脸是无害的,但确实存在危险和道德问题。换脸被用来制造伤害的一种方式是在政治领域。如果一条推文会引起紧张,那么视频或画外音呢?侮辱另一位政治大亨的录音广为传播,加深了两极分化,如果人们相信这是真的,就会造成紧张局势。另一种扰乱社会的方式是在网络上充斥大量虚假内容。每当你上网时,你怎么知道你看到的是真的?如果互联网和媒体上有那么多假面孔,没有人会知道什么是事实,什么是真的。连文字都可能是假的,你怎么知道你看的是我写的,还是机器人误导你。资料来源:《麻省理工科技评论》最后可能造成伤害的是淫秽内容。根据2019年9月的一份报告,96%的在线换脸应用程序都与淫秽作品有关。福布斯的一篇文章是这样说的:变脸淫秽作品经常在未经他人许可的情况下,人为合成带有明星或个人联系人的视频。尽管出现的道德问题听起来很可怕,但可能还会有更糟糕的问题。人工智能和技术正在飞速发展,我们最终将面临奥威尔式的局面。政府会有更多的授权,他们会用人工智能来了解我们在什么地方什么时候做什么。安装在摄像头中的面部识别会监控你的一举一动,麦克风会识别谁在说话,在说什么,预测算法会判断你的下一步动作。资料来源:背景这带来了另一个问题,政府越容易追踪你,就越容易摆脱他们讨厌的人。下一个“希特勒”的工作效率会更高,而不必去追捕烦人的人,因为他们已经知道他们在哪里,并且可以随时找到他们。政府还可以找出谁反对他们,从而更容易惩罚那些反对他们的人。令人信服的虚假文本和视频充斥着最不可信和毫无价值的信息。我们必须对人工智能保持警惕。
