安全和隐私问题是采用AI的最大障碍,这是有充分理由的。善意和恶意行为者都可能威胁到AI模型和数据的性能、公平性、安全性和隐私。随着人工智能变得越来越主流,转向人工智能有望带来许多好处,这是企业不能忽视的发展趋势。事实上,在最新的2020年Gartner新兴技术曲线中,超过三分之一的所列技术与AI相关。同时,人工智能也有往往无法解决的阴暗面,特别是因为目前的机器学习和人工智能平台,市场还没有提供一致或全面的工具来保护组织和个人的权益。根据Gartner的一项调查,对于人工智能公司来说更糟糕的是,消费者认为,当出现问题时,使用或交付人工智能的组织应该承担责任。实施安全措施来应对威胁以保护AI投资符合每个组织的利益。对人工智能的威胁和攻击不仅会危及人工智能模型的安全和数据安全,还会损害模型的性能和结果。犯罪分子通常通过两种方式攻击AI,技术人员可以采取措施减轻此类威胁,但首先让我们探讨一下AI的三大核心风险。人工智能的安全、责任和社会风险使用人工智能的组织面临三种类型的风险。随着AI变得越来越普遍并嵌入到关键的企业运营中,安全风险正在上升。例如,自动驾驶汽车的AI模型可能会出现错误,从而导致致命事故。随着使用敏感客户数据的AI模型越来越多地影响影响客户的决策,责任风险也在增加。例如,错误的AI信用评分可能会阻止消费者获得贷款,从而导致财务和声誉受损。由于“不负责任的人工智能”做出既不透明又不易理解的有偏见的决定,从而给消费者带来不利和不公平的后果,社会风险正在增加。即使是轻微的偏差也会导致严重的错误算法。犯罪分子通常如何攻击AI上述风险可能源于犯罪分子攻击AI的两种常见方式:恶意输入、骚扰和调查攻击。对AI模型的恶意输入可以采取对抗性AI、操纵数字输入或恶意物理输入的形式。对抗性AI可能采取使用AI生成的声音对人类进行社会工程的形式,这些声音可用于任何类型的犯罪,被认为是一种“新”形式的网络钓鱼。例如,去年3月,不法分子利用AI合成语音冒充CEO的声音,要求将24.3万美元诈骗转入自己的账户。调查攻击涉及犯罪分子向组织的AI模型发送调查以了解其工作原理,并且可能以黑盒或白盒的形式出现。具体来说,黑盒查询攻击为所需的输出识别不常见的扰动输入,例如经济收益或避免检测。一些学者已经能够通过操纵输出来欺骗领先的翻译模型,从而导致错误的翻译。白盒查询攻击重新生成训练数据集以重现相似模型,这可能导致有价值的数据被盗。这方面的一个例子是语音识别供应商成为新的外国供应商假冒他们的技术然后出售它的受害者,这导致外国供应商能够基于被盗的IP抢占市场份额。最新的安全支柱使AI值得信赖IT领导者必须承认其组织中AI面临的威胁,以便评估和支持他们现有的安全支柱(以人为中心和企业安全控制)和新的安全支柱(AI模型完整性和AI数据完整性)。AI模型的完整性鼓励组织探索员工的对抗性训练,并通过企业安全控制减少攻击面。使用区块链来创建和跟踪AI模型以及用于训练该模型的数据也属于这一支柱,作为组织使AI更值得信赖的一种方式。人工智能数据完整性侧重于数据异常分析(如分布模式和异常值)和数据保护(如差分隐私或合成数据),以应对人工智能面临的威胁。为了保护AI应用程序的安全,专注于安全技术和基础设施的技术专业人员应该:通过进行威胁评估和应用严格的访问控制以及对训练数据、模型和数据处理组件的监控来最大限度地提高安全性在开发和生产过程中最大限度地减少AI应用程序的攻击面。通过解决四个特定于AI的方面来增强用于保护软件开发生命周期(SDLC)的标准控制:模型开发期间的威胁、AI模型中的缺陷检测、对第三方预训练模型的依赖以及公共数据管道。通过保护和维护包含对抗性样本的最新、高质量的数据存储库,抵御所有数据管道中的数据中毒。越来越多的开源和商业解决方案可用于提高针对数据中毒、对抗性输入和模型泄漏攻击的稳健性。除非欺诈者被人类检测到并且欺诈者的系统随后被取证,否则很难证明AI模型何时被破坏。同时,企业不会简单地停止使用AI,因此保护它对于在企业中成功实施AI至关重要。将安全性改造到任何系统中的成本远高于从一开始就内置它的成本,因此请立即保护您的AI。
