近日,斯坦福HAI研究所和斯坦福监督、评估与治理实验室联合发布白皮书《美国人工智能战略三大支柱的实施挑战》,系统评估了美国在人工智能方面的进展。白皮书主要围绕AI创新和可信AI的三大支柱展开:1.2020年《政府中的人工智能法案》;2.关于“人工智能领导力”的行政命令;3.关于“政府人工智能”的行政命令。总的来说,这些行政命令和《政府中的人工智能法》对于确保美国的人工智能国家战略至关重要,简单来说,这就是“未来十年相对于世界其他地区的竞争优势”。笔者在全面考察了200多个联邦机构各项要求的执行情况后发现,虽然美国在人工智能创新方面取得了很大进步,但也面临着一定的问题:所有要求不到40项%的要求可以公开验证已实施。88%的受访机构未能提供确定与AI相关监管机构的AI计划。大约一半或更多的机构没有提交《政府中的人工智能命令》要求的人工智能用例清单。总结人工智能(AI)的变革潜力是不争的事实。为了从“第四次工业革命”或“第三次数字革命浪潮”中获益,各国正在优先努力重组其公共和私营部门、资助研发(R&D),并制定结构和政策以释放AI创新。在美国,白宫和国会通过增加研发投资、探索通过国家AI研究资源增加公平获取AI相关资源的机制以及为全国的国家AI研究所提供资金来促进AI创新及其值得信赖的部署,直接280美元通过CHIPS和科学法案为国内半导体制造和“未来产业”投资数十亿美元,并协调白宫国家人工智能计划办公室的AI政策。1.AI国家战略:行政命令和立法虽然AI领导命令旨在推动美国所有部门的技术突破,但另外两项工作的重点是联邦政府对AI的使用。第13859号行政命令AILeadership启动了美国AI倡议,以“将联邦政府资源集中在人工智能的发展上,以促进美国繁荣,加强美国国家和经济安全,并改善美国人民的生活质量。”具体来说,它旨在通过强调人工智能研发、人工智能相关数据和资源、监管指南和技术标准、人工智能劳动力、公众对人工智能的信任以及国际参与的多管齐下的方法来加快联邦政府的努力,建立基础设施,建立美国在人工智能领域的领导地位所需的政策基础和人才。此外,“协调的联邦政府战略”是必要的,人工智能“将影响几乎所有行政部门和机构的任务”,人工智能领导令进一步授权机构追求六个相关战略目标,以“促进和保护美国的人工智能的进步”。行政命令13960政府命令中的人工智能指示联邦机构利用“人工智能的潜力来改善政府的运作”。认识到“人工智能的持续采用和接受将在很大程度上取决于公众信任”,政府授权的人工智能阐明了联邦机构在设计、开发、获取和使用人工智能时应实施的九项原则。这些原则规定人工智能应该(a)合法,(b)性能驱动,(c)准确、可靠和高效,(d)安全、可靠和有弹性,(e)可理解,(f)可问责和可追溯,(g)定期监测,(h)透明,以及(i)负责。2020年《政府中的人工智能法》该法律旨在“通过向联邦机构提供资源和指导,确保整个联邦政府对人工智能的使用是有效的、合乎道德的和负责任的。”这包括创建一个AI职业系列,呼吁为机构使用、获取、偏见评估和缓解AI提供正式指导,并在总务管理局(GSA)内创建一个卓越中心以支持政府采用AI。二。总体执行情况作者检查了《政府中的人工智能法》中两个行政命令和每个机构的规定的执行情况。在上面的两个行政命令和《2020年政府人工智能法案》中,作者发现45条要求中有11条,约占27%,已经得到执行。但是,45项要求中有7项(16%)没有在截止日期前执行,其余26项要求(58%)无法确认是否已完全执行或未执行。同样,在已经开始实施的要求中,具体实施情况也不确定。包括努力使人工智能研发更容易获得数据和源代码,更好地利用和创建新的人工智能相关教育和劳动力发展计划,并确保各机构的充分参与,以进一步实施可信赖的人工智能。《政府中的人工智能法案》的四个截止日期都没有实施:人事管理办公室(OPM)应向国会提交一份计划,在2021年5月之前建立AI职业线;OMB应在2021年10月之前发布人工智能采购备忘录,减少歧视性影响或偏见;机构应在2022年4月之前公开发布与之一致的计划;OPM应该在2022年7月之前创建一个AI职业系列,并估计每个联邦机构与AI相关的劳动力需求。在已经实施的措施中,许多都落后于计划的时间表。例如,国家科学技术委员会(NSTC)的人工智能特别委员会在截止日期后16个月向总统提交了关于更好地使用云计算的报告。3.机构的AI举措如上所述,这些行政命令和法案的一个重要重点是“减少使用AI技术以促进其创新应用的障碍”,同时保护公民自由、隐私、美国价值观和美国。经济和国家安全。因此,法规强调审查监管人工智能的适当作用,希望“避免不必要地阻碍人工智能创新和发展的监管或非监管行动”。两个要求对于实现这一目标至关重要:1.要求OMB向机构负责人发布备忘录,就机构应如何监管AI提供指导;2.要求具有“监管权力”的机构制定并公开发布计划(“机构AI计划”),以与OMB提供的指南“达成一致”。2020年11月17日,OMB发布了《行政部门和机构负责人关于人工智能应用监管指南的备忘录》(OMBM-21-06),敦促各机构采取“在保护美国核心价值观的同时促进创新和增长并产生信任的监管方法”。该备忘录概述了管理AI应用的10条原则,以指导机构对AI的监管和非监管方法,确定监管不合适的非监管方法,并建议机构采取行动以减少部署和使用人工智能的障碍。各机构被要求在2021年5月之前提交他们的计划(以遵守AI领导命令的截止日期)并在他们的机构网站上公开发布他们的计划。目前,在41个接受评估的机构中,只有五个(13%)使用OMBAI监管备忘录提供的模板发布了AI计划。这些机构是能源部(DOE)、卫生与公众服务部(HHS)和退伍军人事务部(VA),以及环境保护署(EPA)和美国国际开发署(USAID)。其余36家机构尚未宣布其AI计划。四、人工智能用例清单政府授权的人工智能专注于促进联邦政府内部可信赖人工智能的开发、采用和获取。为此,它要求各机构“准备一份未分类和非敏感的人工智能用例清单”,并与联邦首席信息官委员会(CIOCouncil)、其他机构和公众分享。然而,公开披露人工智能用例清单一直存在问题。在确定可能受此要求约束的220个机构中,168个机构没有单独的AI用例清单或将其AI用例包含在其上级机构的清单中。在接受检查的78个上级机构中,只有17个发布了AI用例列表。也就是说,在全部220家上下级机构中,有76%的机构没有公布名单,78%的机构没有在上级考核中公布名单。此外,在已知AI用例的49个上级机构和子机构中,有47%没有发布AI用例列表(23个上级机构和下级机构)。在最窄的一组机构中,23家在母公司层面拥有已知AI用例的大型机构中,只有11家发布了AI清单。清单本身反映了实施过程中面临的挑战。首先,机构未能披露AI用例,即使它们已被公开记录。其次,各机构在如何实施AI用例清单方面的不一致指向三个尚不清楚的关键点。无回应:对于那些没有公布名单的机构,尚不清楚他们是在断言他们不使用人工智能,还是根本没有满足这一要求。机构结构:除NIST的列表外,所有已发布的列表均在上级机构级别发布(例如,商务部或能源部,而非NOAA或电力局发布的列表)。然而,尚不清楚未包含在列表中的子机构是否没有相关用例,或者它们是否对假定的上级机构的报告要求没有反应。AI的定义:2019财年NDAA中提供并包含在政府指令中的AI定义可能相当广泛,这可能允许机构将特定技术归类为“人工智能”以用于清单目的。人工智能”更难遵守。第三,机构清单往往包含现有的透明度举措,但差异较大。五、总结总体而言,笔者认为美国人工智能战略的三大支柱,即人工智能LeadershipOrder、GovernmentAIOrder和GovernmentAILaw在实践中并不理想。目前的要求被许多机构视为“没有资金的任务”。作为回应,国会应该为机构提供资源来配备人员和开发技术制定战略AI计划的专业知识。未能提供适当的资源并授权高级人员履行这些职责可能会危及美国在AI领域的领导地位。关于作者ChristieLawrence是斯坦福法学院和哈佛大学肯尼迪学院的JD/MPP候选人,并且斯坦福监管、评估和治理实验室(RegLab)的成员。她曾任国家安全局研究和分析主任rityCouncilonArtificialIntelligence(NSCAI),并曾在斯坦福大学以人为本的人工智能研究所、哈佛大学贝尔弗中心网络项目、国务院工作,并担任管理顾问。她拥有杜克大学公共政策学士学位。艾萨克·崔(IsaacCui)是斯坦福法学院法学博士一年级学生、RegLab成员和斯坦福奈特-轩尼诗学者。他拥有PomonaCollege的物理学和政治学学士学位,以及LSE的应用社会数据科学硕士学位和监督硕士学位,他是LSE的马歇尔学者。DanielE.Ho是斯坦福大学WilliamBenjaminScott和LunaM.Scott法律与政治学教授,也是斯坦福经济政策研究所的高级研究员。他是国家人工智能咨询委员会(NAIAC)的任命成员、斯坦福大学以人为本的人工智能研究所(HAI)副主任、行为科学高级研究中心的教员研究员和监督实验室主任.他获得了耶鲁大学法学院的法学博士学位和博士学位。来自哈佛大学。
