现在,随着围绕人工智能(AI)的类似法规开始在世界多个地区实施,GDPR的行业经验可以告知公司如何为不可避免的AI监管审查做准备。公司应该面对现实GDPR的部分内容引起了相当大的公司恐慌,因为当时的新法规要求公司提供准确且易于理解的解释,说明算法分析(特别是机器学习模型)如何做出他们的决定。法规赋予个人要求和接受自动决策解释的权利,尽管很少有消费者真正行使他们在这方面的权利。然而,尽管GDPR已经实施了六年,但它尚未制定机器学习可解释性的行业标准。因为我们仍在寻找理解和控制分析的明确指南,所以从更广泛的角度来看,最终人工智能监管的道路可能也是崎岖不平的。事实上,政府对人工智能技术的开发和使用进行监管是不可避免的。主要原因之一是人工智能的自我调节风险很大。2021年进行的一项研究表明,在人工智能领域,高管们对于公司的责任应该是什么没有达成共识。例如,参与研究的公司中只有22%设有内部伦理委员会。一些高管争辩说,人工智能应用程序不需要符合道德规范,它们只需要被归类为高风险或低风险。其他人则为缺乏确定什么是“足够公平”的工具以及缺乏定义什么构成偏见的标准而苦恼。暴露于风险(以及最终与政府监管的冲突)对于推动参与很重要,并可能将AI提升到董事会级别的话题。如果首席风险官(CRO)没有跟踪AI风险,他们应该这样做。更确切地说,CRO应该提倡全面的企业AI治理框架,以能够支持和经受监管审查的方式定义道德AI标准和模型开发程序。虽然GDPR可能没有引发个人消费者对分析决策内部运作的担忧激增,但即使是专家也认为人工智能的发展势头绝对不是一个好兆头。皮尤研究中心2021年的一份报告指出,大量(专家)受访者认为地缘政治和经济竞争是AI开发者的主要驱动力,而伦理问题是次要因素。其中一些专家表示,人工智能工具的创造者在团队中工作,很少或根本没有动力设计解决道德问题的系统。为了避免诉讼、消费者的不信任、倡导团体的强烈反对以及最终更广泛的政府监管,公司需要成长以拥有他们设计人工智能系统的方式,并面对和管理人工智能风险。有很多人试图符合道德规范,但支持以具体、可衡量、清晰的术语定义“符合道德规范的AI”的人并不多。如果企业集体不回应GDPR的可解释性部分,表明组织将如何回应新生的人工智能法规,他们将难以理解新法规将如何(以及哪些部分)适用,合规性将如何衡量,以及通过或失败的门槛在哪里。这种解释、措施和阈值的混乱组合将导致更广泛的混乱。我们需要AI的道路规则任何AI法规要想取得成功,都需要像高速公路系统一样——有速度限制和违规行为,可以客观地衡量和惩罚。因此,由于企业和行业似乎无法就如何解释分析决策或AI模型达成一致,因此需要引入专家并授权他们做出艰难的决策:定义可接受的特定工具和算法,并通过行业衡量/失败指标的标准化,而不是简单的“自我报告”标准和关于如何满足这些标准的许多令人困惑的行动。这样,我们就可以客观地衡量人工智能的发展情况,它的作用是什么,它的工作是好是对,是好是坏?处罚在前列。例如,抵押贷款行业就是一个很好的例子。信贷决策遵循旨在消除偏见和歧视的准则。不遵守规则(使用有偏见的数据、决策标准或模型)的银行将面临监管机构的严厉处罚,并最终失去消费者的信任和业务。法律将推动AI伦理AI倡导团体的兴起将比GDPR和相关法规预期的个人投诉具有更大的影响力。这些团体正在推动提高人们对AI对消费者生活的影响的认识,当然还有对有偏见的AI承担法律责任的可能性。最重要的是,风险暴露通常会促使公司解决人工智能伦理和偏见问题,尤其是当使用人工智能的创新公司成为集体诉讼的目标时。
