去年3月,一辆优步自动驾驶汽车在亚利桑那州撞死了一名行人。直到今年3月5日,美国检察官表示:优步不负责任,但自动驾驶汽车后备司机拉斐尔·瓦斯奎兹的行为应该交由警方进一步调查。事故现场,图片来自网络不过,2016年2月,谷歌无人驾驶汽车在加州山景城进行测试时,与一辆公交车相撞。美国公路安全管理局(NHTSA)证实,用于自动驾驶的AI系统可以被认为是一名司机。人工智能的异军突起,让此类案件进入了公众视野,也给当前的法律法规、伦理规范、政策体系带来诸多考验:“人工智能的载体是否属于法律主体?”法律与计算机科学交叉领域的一门新课程引发了热烈的讨论。如果不是法律主体,那么当人工智能载体侵犯他人利益,造成社会损失时,开发者、运营者或者使用者是否应该承担责任?如果是法律主体,那么如何对这些“人工智能”定罪量刑呢?今天小谭就带大家看看,在人工智能冲击传统法律和公共政策的当下,斯坦福大学的教育专家和法律专业人士在做什么。人工智能政策制定?联邦政府已经开始不再认为人工智能只是科技公司的专利。事实上,近年来,美国联邦政府已经开始考虑利用机器学习和人工智能相关技术来帮助制定公共政策。美国环境保护署(EPA)监管杀虫剂的例子是算法分析和法律相互作用的微妙形式的一个很好的例子。过去,EPA对农药毒性的测试在很大程度上依赖于动物对化学品的反应。但由于要测试80,000多种化学品,该方法被广泛批评为缓慢、昂贵且不人道。后来,美国环境保护署开始收集大量数据,并引入不同的计算方法来规范化学品毒性检查。它建立了一个聚合的计算毒理学资源(AggregatedComputationalToxicologyResource),一个从各种公共资源中集成的关系数据库,以支持数据挖掘和建模。——通过算法和神经网络在数据分析中寻找决策新思路。当人工智能介入法律决策时,美国的伤残索赔流程也开始发生变化。自2013年起,为减轻工作人员处理纸质文件的负担,提高案件决策的一致性,美国退伍军人事务部推出了处理退伍军人伤残索赔的计算机化案件管理系统。据介绍,该系统可根据索赔人(自报)问卷自动评估不同退伍军人的伤残程度,范围为0-100%。该软件目前使用IBMWatson的人工智能程序来筛选退伍军人电子病历中的数据。科技巨头,政府数字化改革的合作伙伴?今年2月,特朗普签署新的推动人工智能的行政命令,再次将人工智能提升为国家优先事项。但是,除了军事部门之外,大部分联邦机构的技术更新速度仍然较慢,高科技人才相对短缺。高级人才哪里多?当然,他们属于硅谷的科技巨头。那么,处于科技前沿的科技公司在联邦政府的科技升级中扮演着什么样的角色呢?IBM等科技巨头与政府在人工智能领域有多个合作项目:美国海军陆战队正在使用Watson的人工智能设备诊断军用车辆的性能,并应用自然语言处理和数据科学——例如IBM的SPSS统计软件和WatsonExplorer——对人员的组织和部署。不久前,大部分计划和日程安排都是使用电子表格完成的。人工智能正在改变海军陆战队的部署方式。图片来自IBM官网。除了技术支持,科技企业还将与政府就核心技术政策、法规、应用前景等进行交流。今年2月,谷歌向美国政府提交了一份长达34页的《关于人工智能管理的意见》(PerspectiveonIssuesinIssuesinAIGovernance),呼吁政府、社会和产业界就AI可解释性标准、公平性评估、安全方面的考虑进行协作和问责制框架。谷歌建议美国政府应该为人工智能创建类似的安全指标,就像欧洲电子产品需要CE认证才能销售一样。“例如,智能锁中的生物识别技术在使用前应进行准确性测试,”谷歌新兴技术政策全球负责人查丽娜·周(CharinaChou)表示。虽然很多科技巨头都在技术项目上与政府合作,但如果这些项目涉及侵犯隐私和违背道德的风险怎么办?还记得谷歌和美国国防部合作的Maven项目吗?这个在去年3月曝光后的热门项目是,谷歌利用人工智能技术分析无人机镜头,帮助无人机更好地从运动或静止图像中自动追踪感兴趣的物体,从而提高打击的准确性。这些无人机可能会参与美国对阿富汗、巴勒斯坦、也门等国的空袭行动。很快,超过4000名谷歌员工签署了反对“Maven”项目的请愿书,该项目在《纽约时报》拿出了整版广告,导致数十名员工辞职。最后,去年6月,谷歌让步了。表示与国防部的合作在今年3月到期后将不再续签。450多名亚马逊员工也在近期向贝索斯发出公开信,希望该公司停止与美国国防部和执法系统就面部识别软件Rekognition进行合作。他们担心的是,执法部门在没有公众监督、社会责任和亚马逊限制的情况下使用这些技术可能会导致侵犯人权。不过,贝索斯表示,公司将继续与国防部合作,“如果科技大公司都拒绝国防部,那么这个国家就会有麻烦了……这是我们应该做的,即使它不受欢迎。”人工智能智能与行政相结合的优势和关注点人工智能在提升政府绩效方面有哪些优势?有三个不可抗拒的主要优势。最大的是效率。以低成本完成大量重复性事件。另一方面,机器可以在不受个人因素干扰的情况下进行数据分析和结果预测。决策者可能表现出种族偏见,可能高估或低估了一条信息的重要性,或者可能对他们的处境过于天真。排除人的意志使机器做出的决定具有天然的说服力。最重要的是,通过连接大数据,计算机程序可以帮助政府官员分析信息并对潜在的战略行动做出反应。人工智能在反洗钱领域的应用探索,图片来自网络不过,在提升行政效率的同时,规范使用机器办公的问题也被提上日程。近日,加州最高法院大法官Mariano-FlorentinoCuéllar在他的《人工智能与行政国家》(人工智能与行政国家)一书中提出了四点关于在决策过程中使用人工智能代理人的担忧。加州最高法院大法官Mariano-FlorentinoCuéllar自己首先,政府是否应该依靠计算机程序来做出某个决定?大法官认为,这取决于决策目标的社会争议。目前,立法者经常对是否作出某项行政决定(如实施经济制裁)以及该决定在不同层面的后果进行大量辩论。人工智能将如何在政治博弈中协调各方利益?这将是不小的挑战。第二个关注点和争议点来自人工智能所谓的“机械理性”。既然由算法主导的行政决策越来越重要,但在机器减少人为因素干扰的同时,我们是否应该反思那些所谓的“偏见”和“情感因素”是否没有价值?一些可能被机器排除的“偏见”,比如对弱者的同情也可能值得关注。三是网络安全风险等不利影响。随着管理越来越依赖数据收集和计算机程序,这可能会带来更高的效率,但这也意味着更容易受到网络安全威胁。***,如何向公众解释决策过程会遇到困难。试想,民主治理的内涵是通过对话和沟通,每一个声音都有机会被决策者或公众理解、接受或拒绝。除非人工智能的决策机制能够依赖相对简单和透明的结构,否则决策机构很难向公众提供决策的理由。斯坦福法律课上的头脑风暴面对这些担忧,位于硅谷中心地带的斯坦福大学开始推动从学术研究到产业层面的合作:从2019年开始,斯坦福大学政策研究中心将开设新法律和计算机科学交叉课程。“算法治理:监管状态下的人工智能”。(AdministeringbyAlgorithm:ArtificialIntelligenceintheRegulatoryState)新算法管理课程,图片来自斯坦福大学法学院官网-联合教授FlorentinoCuéllar,邀请25位律师、计算机科学家和算法工程师共同探讨技术发展与应用的政府机构。从左到右:斯坦福大学法学院教授DanielE.Ho、DavidFreemanEngstrom和加州最高法院大法官Mariano-FlorentinoCuéllar做出了这样的决定,另一方面,人工智能和机器学习的工作方式还不完全透明,”斯坦福大学法学院教授大卫·弗里曼·恩格斯特罗姆说。课堂上的学生来自计算机科学、法律、政治、哲学等不同专业背景,需要通过团队合作完成三部分任务。首先,该团队调查了100个最重要的联邦机构。当找到算法参与决策的例子时,同学们开始评价这个技术属于哪一类:人工智能、机器学习,还是其他一些基础技术?第二步,学生集体评估政府在近期或中期最有可能部署AI的组织部分。***,转向规范问题:考虑使用人工智能执行监管任务的法律、政策分析和哲学挑战。例如,如何解决许多程序性权利被机器管理覆盖的威胁。在课程结束时,学生将完成一份报告,探讨人工智能技术如何在行政机构的不同层面应用。该报告将提交给无党派独立机构美国行政会议,预计将影响未来的行政部门政策。
