大数据文摘制作编译:栾红叶、Aileen现在是讨论AI伦理问题的时候了。机器学习虽然不是新的技术发展,但现在是人工智能发展的关键时刻。有许多道德问题需要面对,包括下面提到的十一个。将人工智能用于不道德的目的1.经济不平等和劳工问题随着技术的进步,我们首先关注的是工作保障。与最初的工业革命一样,劳动力的大规模自动化让工人感到恐惧。第一次工业革命期间,美国政府首先推动了大学教育的发展。当时美国人的问题不是上大学的费用,而是为了获得学位而暂停工作的机会成本。你可以说强迫工人学习是野蛮的,但人工智能催化的下一阶段自动化(第四次工业革命)也在推动工人攻读大学学位。如果政府不提供普遍收入(每个人的基本工资)来照顾被自动化淘汰的工人。然后,学生贷款危机还会阻碍流离失所的劳动力继续接受教育,这可能导致反复出现的贫困和收入不平等。2.对人类行为的影响无论我们是否意识到,人们越来越多地与机器互动以完成日常任务——这提出了透明度问题,但也具有行为影响。例如,GoogleDuplex,一个听起来很真实的人工智能。通过电话预订餐厅的系统。该系统可以快速响应,与真人不相上下。人类的注意力和耐心是有限度的,但机器的情感能量不是,当然机器的极限是技术上的。虽然这在某些领域可能是有益的,例如客户服务,但这种无限的能力可能会让人类对机器人产生情感上的依赖。这就是电影《Her》所反映的问题,它讲述了一个男人爱上机器的故事。除了这些类人机器人之外,许多应用程序还设计为使用算法来让用户上瘾。例如,Tinder旨在让用户更长时间地与人工智能驱动的应用程序绑定,并且不会推荐类似的用户匹配,从而使用户在应用程序中停留的时间更长。3.就业偏见和犯罪歧视A.I.伦理学中最紧迫和广泛讨论的问题之一是预测分析系统中的偏见问题,例如在就业或犯罪领域。当亚马逊使用人工智能驱动的算法,利用历史数据筛选优秀的求职者时,就成了众所周知的招聘偏见事件。由于之前候选人的选择存在性别偏见,该算法也有利于男性。今年3月,纽约警察局透露,它已经开发了Patternizr,这是一种算法机器学习软件,可以筛选警方数据以发现犯罪模式并将类似犯罪联系起来。该软件自2016年以来一直在使用,尚未用于强奸或杀人案件,并且在其搜索模式中排除了性别和种族等因素。虽然这比以前基于种族歧视预测犯罪和侵权行为的算法向前迈出了一步,但主动从历史数据集中消除各种歧视并不是标准做法。这意味着这种训练有素的歧视性偏见充其量是一种冒犯和不便,而在最坏的情况下是对个人自由的侵犯和系统性压迫的催化剂。4.错误信息和假新闻人工智能的另一个伦理问题是伪造,就是利用A.I.操纵原始媒体和音频中的图像、视频和音频以改变他人的意思,通常是出于恶意。Deepfakes包括面部交换、声音模仿、面部重演、嘴唇同步等。与旧的照片和视频编辑技术不同,deepfake技术的开发是为了让技术水平不高的人也能轻松掌握它的使用。根据前北约秘书长尼娜·希克等专家的说法,通过深度造假来操纵图像和视频可能会对全球秩序产生灾难性影响,例如唐纳德·特朗普宣布核战争,因此,深度造假技术成果将受到非常严格的审查并被Reddit等网站屏蔽。在上次美国总统大选期间,俄罗斯使用类似的技术利用假新闻进行黑客攻击。这种信息战正在变得司空见惯,它的存在不仅仅是为了改变事实,而是为了强行改变某些观点和态度。这种方法也被用于英国退欧运动,加剧了政治紧张局势和全球局势的混乱。5.消费者隐私和安全尽管政府制定了许多法规来保护消费者隐私(例如欧盟数据隐私法GDPR),但潜在威胁仍然巨大:数据收集:大多数消费设备,从手机到支持蓝牙的灯灯泡,人工智能用于收集我们的个人数据,以便提供更好、更个性化的服务。如果用户同意并且数据收集也是透明的,那么这种个性化是一项很棒的功能。如果没有约定或透明度,这种功能会给用户带来不好的体验。识别和追踪:当我们将iPhone忘在出租车上,或将钥匙留在沙发垫中间时,手机追踪应用程序会很有用。但有时,就像想要隐藏自己行踪的家庭暴力幸存者一样,跟踪个人信息并不安全。语音和面部识别:与之前的功能一样,语音和面部识别是我日常消费设备中的一项便利功能。例如,在iPhone上,用户可以通过面部识别解锁手机,而无需输入密码。6.全球安全和情报类似于国际错误信息(如假新闻报道)的风险,以及人工智能的道德风险。在这方面是巨大的。虽然用人工智能机器人取代人类士兵,或制造自动化武器,可能会在一定程度上降低政府防御力量可能造成伤害的风险,但人工智能带来的道德困境与核弹相当。虽然国际领导人很少提及人工智能在核武器试验中的作用,但像微软这样的公司已经悄悄宣布愿意向五角大楼出售先进的自动识别系统。使用人工智能减少消费者代理7.奇点,或机器人霸主就像《杰森一家》的噩梦般的情节,机器人霸主的概念在消费者的脑海中隐约可见,作为最明显的人工智能。道德困境。牛津大学权威专家尼克·博斯特罗姆表示,如果未来的人工智能系统拥有与人类价值观不一致的价值观,那么恶意机器人霸主的愿景就有可能成为现实。作为没有自主权的人,我们是谁?当机器人被赋予自主权时,谁是机器人?最后,当他们被赋予相同的自由和智慧时,我们如何定义两者?谷歌的未来学家和首席工程师RayKurzweil说奇点比我们想象的更近。Kurzweil预测,到2045年,我们将结合人类智能和人工智能,他相信这将使我们变得更加聪明——一个值得期待而不是恐惧的未来。8.人道对待人工智能DoA.I.系统(或机器人)有权利吗?如果Kurzweil是正确的,那么A.I.的人道待遇。可能只是意味着人道对待人类。目前,一些人工智能系统甚至具有公民身份,例如Sophia(HansenRobotics制造的人形机器人)。人工智能和不可预测的次要事件9.A.I.错误如果有人工智能,那么就会有人工愚蠢。目前,A.I.系统是根据某些领域的模式进行训练的,并且由于它们无法涵盖所有??可能性,因此在出现新场景时很容易混淆。这是因为A.I.系统还没有像人类一样识别相似性的能力,就像在模式识别中一样,当A.I.系统遇到与训练集中数据不同的场景,不会根据上下文进行判断。如果A.I.系统很容易被愚弄,这也意味着它们容易受到邪恶力量的攻击,例如机器学习中的对抗性攻击。例如,一种算法可以从有影响力的帐户中读取假新闻,并根据优化的内容因素对其进行推广,而不是像记者在发布前所做的那样检查来源或想法。10.监管A.I.总体而言,科技行业因其缺乏监管而备受争议,部分原因是该行业变化如此之快,以至于很难弄清楚应该从哪里开始执法,部分原因是科技文化和西方世界的梦想是一样的,也就是说,不惜任何代价进行创新。也有尝试自律的,比如谷歌,它创建了一个内部伦理委员会,但不久之后就解散了,因为它的成员有争议,即那些否认气候变化和持有反移民情绪的人。同样,微软口头上鼓励政府调整人工智能。系统,尤其是面部识别软件;然而戏剧性的是,微软的竞争对手指出,微软与立法者的关系过于密切。与此同时,A.I.系统的开发和部署几乎完全没有监管。11.如果道德A.I.s是不可能的......尽管我们尽了最大努力,A.I.s可能永远不会变得道德。训练A.I.道德系统涉及:假设A.I.有道德行为的动机期待普遍道德规则的出现相信训练人工智能的人。道德本身就是道德的。斯蒂芬霍金、比尔盖茨和埃隆马斯克都表示应该谨慎对待超级智能。A.I.可以吗?变得合乎道德?意见各不相同,但事实很明显,人工智能的时代已经到来。道德在我们身上,如果我们不采取行动,那将是一个很大的错误……相关报告:https://blog.remesh.ai/top-11-a.i.-ethics-dilemmas-affecting-tech-right-now:BigDataDigest)”]点此查看作者更多好文
