当前位置: 首页 > 科技观察

在过去的一年里,世界对人工智能伦理有了这些思考

时间:2023-03-13 21:15:16 科技观察

在1月底结束的2019年国际消费电子展(CES2019)上,I.P.LG总裁兼首席技术官Park就AI如何促进“自我进化”产品的主题演讲发表了演讲。关于“人工智能与伦理”的讨论成为这场原本与严肃话题无关的消费科技盛会的序幕。从自动驾驶到智能家居,无论是讨论频率还是技术创新,人工智能已经渗透到人们追求美好生活的方方面面。据麦肯锡估计,到2030年,人工智能将在全球创造近130亿美元的额外经济产值,占世界GDP增长的1.2%[1]。与此同时,各国政府也注意到这项技术正在深刻影响着人类社会。在加拿大某国际智库发布的《建设人工智能的世界——国家和区域人工智能政策报告》[2]中,全球18个主要国家发布了针对人工智能的针对性战略和政策。包括科技、法律法规、伦理道德、社会治理等诸多方面。然而,随着人工智能的井喷式发展,人工智能对整个社会的影响也从科幻走进了现实。撇开科幻作品中炫酷强大的终结者不谈,单纯的自动驾驶技术在实际投入使用时也会面临“电车悖论”。人类社会生活的复杂性在于,不仅要追求工作的效率和精准,更要追求选择的公平和合理。随着技术的不断发展,当人工智能真正融入人们的日常生活时,这些伦理选择也将真实地呈现在我们面前,成为人工智能设计者需要解决的问题。那么具体来说,人工智能会引发哪些讨论呢?我们需要注意哪些问题?在过去的一年里,大家关注了这些问题:人工智能不应该伤害人。种子设定了旨在帮助人类的机器的道德规范。1950年代,著名科幻作家阿西莫夫在其著作《我,机器人》中提出了“机器人学三大定律”。该法第一条规定:“机器人不得伤害人类,或者看到人类受到威胁时不得采取任何行动。”保护至高无上的人身生命是一切行动的前提。从字面上看,这应该是一个普遍认可和遵循的规则,但现实并不像科幻小说中那么简单。2018年4月,谷歌与美国五角大楼就Maven项目达成合作。通过机器学习技术和先进的计算机视觉技术,可以在无人机拍摄的视频中识别物体,自动检测和识别38类目标,从而减轻军事分析人员的工作量。此外,该技术还可用于追踪目标人物的行踪。此举引发多名项目相关员工离职,近4000名员工联名请愿谷歌取消该项目。6月,谷歌发表声明强调不会进行任何旨在伤害人类的武器开发或人工智能研究,但该项目并未终止。最终,在“拒绝为军队研究人工智能”的员工施压下,谷歌最终确认该项目在2019年3月到期后不再续约。这场“反战运动”的胜利由此开启人工智能领域普通从业者的经历提醒我们,毫无疑问,人工智能技术有着非常广阔的应用领域。在科技飞速发展的今天,人形“终结者”不是会出现,而是可能会以另一种形式悄然降临。然而,技术发展需要伦理和监管约束。毕竟,正是这些最基本的规定,在不断的摩擦、碰撞和冲突中,维系着人类社会的正常进步。或许人工智能的去武器化已经在大多数社会达成了共识,而谷歌的项目也遭到了全球众多和平主义者的反对。然而,除了自动化武器的“主动伤害”之外,当人工智能渗透到我们生活中的不同场景时,如何应对一些人工智能“强制伤害”的场景也成为了一个重要的课题。自动驾驶就是一个例子。2018年10月,麻省理工学院在Nature上发表了一篇涉及自动驾驶的“电车难题”的论文[3]。使用研究人员开发的“道德机器”,来自200多个国家的超过200万在线参与者就自动驾驶汽车在紧急情况下应该如何选择不同的生活提出了一系列问题。结果表明人类选择的多样性——不同群体的选择偏好差异很大,比如有的集群倾向于保护动物,有的集群倾向于保护老人。这些特殊性可能出现在不同的人类人群中,但对于需要提前编程以选择独特且特定模式的自动驾驶汽车来说,要么少数人的偏好被***放大并与大多数人发生冲突,或者少数人的偏好被绝大多数人完全消灭。如果根据研究的一般结果制定自动驾驶规则,许多人和年轻人将以牺牲少数人和老年人为代价得到保护。可以想象,如果这样的规定得到全面推广,老人家还敢出现在繁华的街道上吗?“一方面,我们希望为公众提供一种参与重要社会讨论的简单方式,”媒体实验室媒体艺术与科学副教授IyadRahwan说。“另一方面,我们希望收集数据以确定人们认为哪些因素对自动驾驶汽车解决道德权衡很重要。”并为其制定规则。人工智能不应歧视人在麻省理工学院的调查中,除了生活的选择,更值得关注的是人工智能算法对人类偏好差异的放大。如果不加小心,这些差异很可能会通过算法的发展被放大成偏差,真正影响到人们的选择。比如亚马逊的人工智能员工系统。实验性招聘系统在以前员工的简历上使用机器学习,实际上给女性技术人员的简历打分。经过无数争议,亚马逊终于在2018年11月关闭了该系统。就在亚马逊关闭其人工智能简历筛选系统的同一个月,8名美国国会议员联名致信亚马逊CEO,抗议其面临的种族歧视识别系统。虽然亚马逊这次顶着压力反击,但全球的均衡器还是不买账。双方的争吵一直没有停止。机器学习通过海量、快速、精确的重复计算,解决效率问题,在很多领域都有巨大的发展潜力。但在高效的同时,细看人类提供的机器学习样本,在剔除错误和寻找规律的时候,很自然地会使用大部分样本作为例子。当它应用到现实中时,就变成了人们所指责的“歧视”。这不是开发者的故意行为,也不是人工智能本身的问题。只能说,在人类历史的发展过程中,人工智能帮我们指出了以前没有意识到的问题。当我们坚信人工智能应该为每个人服务时,我们需要思考如何克服以往的偏见。这就是人类与人工智能的关系。智能常见任务。人工智能不应“操纵”人除了对现有数据的不同偏好外,人们对人工智能数据和建议也有很多顾虑。当人工智能不断展现其强大的数据处理能力时,不少评论人士认为人工智能是中心化的。由于其强大的数据抓取能力,巨大的信息不对称带来了社会恐慌。2018年的Facebook隐私泄露事件将数据安全推到了风口浪尖。对人工智能和算法的不信任也上升到了前所未有的高度。同时,算法推荐的产品也被重新审视。一方面,算法推荐背后强大的数据抓取和分析,让人觉得自己在人工智能面前赤身裸体,毫无隐私可言;害怕人工智能强大到可以操纵人类的“自我意识”。2018年12月,谷歌旗下的视频社交网站YouTube被指控向客户传播极端主义和虚假新闻。YouTube随即道歉并删除了视频,但如何修正算法推荐系统是各方共同讨论的问题。人类的道德是在长期的社会实践中自然形成的,但是对于一台没有经历过这些社会实践的计算机来说,是无法自然形成道德约束的。但显然,算法需要价值观已经成为人工智能界的主流共识。为算法加入符合人类价值观的约束条件,公开算法只是第一步。如何通过社会讨论建立规则,通过想象力和创造力设计出更符合人类伦理价值观的算法,仍然需要人工智能技术领域的发展。继续在路上探索。人工智能不应该完全取代人类。如果算法在消费者和人工智能之间造成裂痕,那么人工智能在生产端对人类的碾压优势将带来更多的恐慌。从机械臂到机器人,从自动化生产到人工智能写新闻,可以替代人类劳动的人工智能产品层出不穷。2016年12月,白宫发布《人工智能、自动化与经济报告》[4],指出人工智能生产正在颠覆劳动力市场。在当时,这似乎有些“力不从心”,但在随后的两年里,人们也感受到了人工智能给劳动力市场带来的压力。2019年初,布鲁金斯研究中心报告[5],约3600万美国人面临被人工智能取代的风险,不仅在农业和制造业,在服务业也是如此。不过,也有经济学家指出,自动化生产和服务可以创造新的就业岗位,同时,一些需要高创造力的工作岗位无法被取代。事实上,每一次技术飞跃和变革都会带来相应的社会阵痛,但社会总能在阵痛中实现转型。或利用教育提升个人素质,从事更具挑战性和价值的工作;或利用人工智能创造新岗位,实现劳动力转型;或投身创业创新大潮,为社会创新注入更多活力。我们看到,这些有创造力的人在与人工智能“战斗”的过程中配合人工智能,通过牺牲实现社会的不断进步。警惕不忘科技向善的初衷面对科技带来的问题和社会讨论,无论是州长还是实业家,都以自己的方式做出了回应。在美国国防部2019年的预算中,人工智能国家安全委员会首次出现。该委员会聘请了包括谷歌和微软在内的人工智能巨头的专家来评估与人工智能和机器学习相关的技术创新,并确保其使用在法律框架内并符合道德价值观。无独有偶,2018年12月,欧盟各领域的52位专家发布了《人工智能发展和运用的伦理指导》[6],希望从伦理的角度规范人工智能技术。他们认为,人工智能首先应该尊重基本人权、伦理规则和社会价值观,即追求“伦理目标”;在保持技术创造力的同时,需要反思和加强人工智能的可靠性。在2018年的人工智能发展计划中,英国还成立了数据伦理中心,试图管理难以捉摸的大数据。除了政府,各大企业也纷纷主动出台了自己关于人工智能的伦理倡议,以保障人工智能的合理发展。在2018年世界移动通信大会上,IBMWatsonCTORobHigh提出了IBM人工智能发展的三大原则——信任、尊重和隐私保护。同时,微软主张政府为人脸识别技术制定法规,提出了六项原则——公平、透明、责任、非歧视、知情同意、法律控制。深陷数据泄露漩涡的Facebook也在2019年初开始行动——斥资750万美元与慕尼黑工业大学合作成立人工智能伦理研究所,希望引入更多伦理思想投入到人工智能的研究中。腾讯董事局主席马化腾在2018年世界人工智能大会上提到了人工智能的“四种可能”概念,同时也对人工智能的各种问题做出了完整的回应。“四能”译为“ARCC”(Available,Reliable,Comprehensible,andControllable,读作方舟),即未来的人工智能应该是“可知”、“可控”、“可用”和“可靠”。腾讯希望通过“四种可能”等伦理框架,帮助人工智能开发者及其产品赢得公众的信任。这正是当今全世界人工智能开发者所追求的目标。腾讯高级副总裁郭凯天在第二届科技向善论坛上表示:“在数字社会的背景下,从业者需要保持警惕和反省,更重要的是要相信科技向善,并相信人类有能力和智慧驾驭和驾驭这场科技革命。”从数据收集、训练到机器学习,人工智能实际上只是放大了人类社会一直存在的问题,提醒我们在新时代的背景下,用想象力和创造力去思考和解决这些问题。问题。科技源于人类对美好生活的追求。以人为本,以人为本。无论是立法限制还是价值原则,归根结底都是对人类社会伦理价值的再探讨。人工智能的浪潮仍在继续。互联网时代的先行者,应该能够在这股浪潮中立足思考,怀着向善的信念,稳步前行。