大型、敏感的数据集通常用于训练AI模型,从而产生隐私和数据泄漏风险。人工智能的使用增加了组织的威胁向量并扩大了其攻击面。人工智能进一步为良性错误创造了新的机会,对模型和业务成果产生不利影响。无法减轻无知的风险。Gartner最近对CISO进行的一项调查显示,大多数组织没有考虑人工智能带来的新安全和业务风险,或者他们必须实施新的控制措施来减轻这些风险。人工智能需要新的风险和安全管理措施和缓解框架。以下是安全和风险领导者在其组织内有效管理AI风险和安全性时应重点关注的五个优先事项:1.捕获AI风险机器学习模型对大多数用户来说是不透明的,并且与一般软件系统不一致,它们的内部工作原理是不同的即使是最熟练的专家也不知道。数据科学家和模型开发人员通常了解他们的机器学习模型试图做什么,但他们无法始终破译模型处理数据的内部结构或算法手段。这种缺乏理解严重限制了组织管理AI风险的能力。人工智能风险管理的第一步是列出组织中使用的所有人工智能模型,无论它们是第三方软件的组件、内部开发的还是通过软件即服务应用程序访问的。这应该包括确定各种模型之间的相互依赖关系。然后根据运营影响对模型进行排名,同时考虑到可以根据确定的优先级逐步应用风险管理控制。模型布置好后,下一步就是使它们尽可能具有可解释性或可解释性。“可解释性”是指生成细节、原因或解释的能力,以阐明模型对特定受众的功能。这将为风险和安全经理提供一个环境,以管理和减轻模型结果产生的业务、社会、责任和安全风险。2.通过人工智能风险教育活动提升员工意识员工意识是人工智能风险管理的重要组成部分。首先,让所有参与者参与进来,包括CISO、首席隐私官、首席数据官以及法律和合规官,以重新设定他们对AI的看法。他们应该明白,人工智能“与任何其他应用程序一样”——它带来独特的风险,需要特定的控制措施来减轻此类风险。然后,与业务利益相关者建立联系,以扩大对需要管理的AI风险的认识。与这些利益相关者一起,确定跨团队和随着时间的推移构建AI知识的最佳方式。例如,看看你是否可以在你的学习管理系统中添加一门关于人工智能基本概念的课程。与应用程序和数据安全部门合作,帮助在所有组织成员中培养AI知识。3.通过隐私举措消除AI数据暴露根据Gartner最近的一项调查,隐私和安全已被视为AI实施的主要障碍。采用数据保护和隐私程序可以有效消除AI内部和共享数据的暴露。有多种方法可用于访问和共享基本数据,同时仍满足隐私和数据保护要求。确定哪种数据隐私技术或技术组合最适合您组织的特定用例。例如,研究数据屏蔽、合成数据生成或差分隐私等技术。向外部组织导出或导入数据时应满足数据隐私要求。在这些场景中,完全同态加密和安全多方计算等技术应该比保护内部用户和数据科学家的数据更有用。4.将风险管理纳入模型操作AI模型需要专用流程作为模型操作或ModelOps的一部分,以使AI可靠且高效。随着环境因素的不断变化,AI模型必须持续监控业务价值泄漏和不可预测(有时是不利的)结果。有效的监视需要了解AI模型。专门的风险管理流程必须成为ModelOps不可或缺的一部分,以使AI更加可信、准确、公平,并且能够抵御对抗性攻击或良性错误。应持续应用控制——例如,贯穿模型开发、测试和部署以及持续运营。有效的控制将检测恶意行为、良性错误以及AI数据或模型的意外更改,这些更改会导致不公平、腐败、不准确、模型性能和预测不佳以及其他意外后果。5.采用人工智能安全措施应对对抗性攻击检测和阻止对人工智能的攻击需要新技术。对AI的恶意攻击可能导致重大的组织损害和损失,包括财务、声誉或与知识产权相关的数据、敏感的客户数据或专有数据。负责安全工作的应用程序负责人必须对其AI应用程序添加控制,以检测异常数据输入、恶意攻击和良性输入错误。围绕AI模型和数据实施一整套传统企业安全控制,以及针对AI的新完整性措施,例如容忍对抗性AI的训练模型。最后,使用欺诈、异常检测和机器人检测技术来防止AI数据中毒或输入错误检测。
