欧洲人工智能法案即将出台,或将影响全球科技监管合规的法律后果。该法案可能要求公司在某些情况下在采用人工智能之前寻求批准;取缔某些被认为风险太大的人工智能用途,并创建一份人工智能的其他高风险用途的公开清单。欧盟委员会在一份关于该法律的官方报告中表示,从广义上讲,该法律旨在将欧盟值得信赖的人工智能范式编纂成法典。这种范式“要求人工智能在法律、道德和技术上都强大,同时尊重民主价值观、人权和法治”。拟议的AI监管框架具有以下目标:1.确保在欧盟市场上部署和使用的AI系统是安全的,并尊重现有的合法基本权利和欧盟价值观;2.确保促进人工智能发展的法律确定性3.加强治理并有效执行适用于人工智能系统的有关基本权利和安全的现有法律;4.推动形成合法、安全、可信的人工智能应用统一市场,防止市场碎片化。虽然新法律的许多细节仍悬而未决,关键是人工智能的定义,但核心要素似乎是其“产品安全框架”,它将未来的人工智能产品分为四个安全级别类别,适用于所有领域行业。根据斯坦福-维也纳跨大西洋技术法律论坛的MaruritzKop编写的2021年欧盟委员会关于新法律的报告,“关键性金字塔”的底部是风险最小的系统。属于此类的人工智能应用程序不需要遵守高风险系统必须通过的透明度要求。在“有限风险”类别中,对人工智能系统有一些透明度要求,例如聊天机器人。——欧盟新人工智能法将人工智能项目从下到上分为四类:低风险、有限风险、高风险和不可接受的风险。在对透明度有严格要求的高风险人工智能类别中,监管会更加严格。据介绍,高风险类别包括人工智能应用在:关键基础设施,如交通,可能危及人类生命或健康(如自动驾驶汽车);影响个人教育或专业成就(如考试成绩)的教育或职业培训;产品安全组件(例如机器人辅助手术);就业、劳动力管理、个体经营(例如简历、简历分类软件);基本的私人和公共服务(例如信用评分);执法用例(例如证据评估);移民、边境管理(包括护照真实性评估);公正和民主的程序(例如将法律适用于一组特定的事实);监控系统(例如生物识别监控和面部识别)。尖塔中的第四类是具有“不可接受风险”的人工智能系统。这些应用程序基本上是非法的,因为它们带来了太多风险。此类应用程序的示例包括用于操纵行为或人或“特别弱势群体”的系统、社会评分以及实时和远程生物识别系统。高风险类别可能是许多公司将集中精力确保透明度和合规性的地方。欧盟的人工智能法案将建议公司在推出属于高风险类别的人工智能产品或服务之前采取四个步骤。开发高风险人工智能系统,最好首先在内部使用人工智能影响评估和由包容性多学科团队监督的行为准则。高风险人工智能系统必须经过合格评定和批准,并在其整个生命周期中持续符合欧盟人工智能指令的要求。系统外的某些机构将参与合格评定审核。这个动态过程确保了基准测试、监控和验证。此外,对于具有高风险AI的动态系统,必须重复步骤2。独立的高风险人工智能系统的注册将在一个专门的欧盟数据库中进行。必须签署符合性声明,高风险人工智能系统必须带有CE标志。
