随着几乎每个行业的公司都将人工智能(AI)技术集成到他们的硬件和软件中,客户越来越广泛地使用它。这自然引起了恶意行为者的注意。HiddenLayer首席执行官ChristopherSestito谈到机器学习安全注意事项以及企业应担心的相关威胁。企业正在慢慢意识到机器学习可以为他们开辟的途径。但是,他们是否也在密切关注网络安全?很少有企业专注于保护他们的机器学习资产,更少的企业将资源分配给机器学习安全。造成这种情况的原因有很多,包括相互竞争的预算优先级、人才短缺,以及直到最近还缺乏针对该问题的安全产品。在过去十年中,我们看到每个行业都以前所未有的方式针对每个具有可用数据的用例采用AI/ML。这些好处已经得到证实,但正如我们在其他新技术中看到的那样,它们很快成为恶意行为者的新攻击面。随着机器学习操作的进步,数据科学团队在有效性、效率、可靠性和可解释性方面正在构建更成熟的AI生态系统,但安全性尚未成为优先事项。对于企业来说,这已不再是可行的路径,因为攻击机器学习L系统的动机很明确,攻击工具可用且易于使用,潜在目标正以前所未有的速度增长。攻击者如何利用公开可用的机器学习输入?随着机器学习模型被集成到越来越多的生产系统中,它们正在通过硬件和软件产品、Web应用程序、移动应用程序等向客户展示。通常被称为“边缘人工智能”,这种趋势为我们每天使用的所有技术带来了令人难以置信的决策和预测能力。向越来越多的最终用户提供机器学习同时会将这些相同的机器学习资产暴露给威胁参与者。未在线公开的机器学习模型也存在风险。这些模型可以通过传统的网络攻击技术访问,为对抗性机器学习机会铺平了道路。一旦威胁行为者获得访问权限,他们就可以使用多种类型的攻击。推理攻击试图映射或“反转”模型,从而能够利用其弱点,篡改整个产品的功能,或者复制和窃取模型本身。人们已经看到了这种攻击安全供应商以绕过防病毒或其他保护机制的真实例子。攻击者还可以选择毒害用于训练模型的数据,以误导系统错误地学习并做出有利于攻击者的决策。组织应该特别关注机器学习系统面临的哪些威胁?虽然需要防御所有类型的对抗性机器学习攻击,但不同的组织将有不同的优先级。利用机器学习模型识别欺诈交易的金融机构将高度关注抵御推理攻击。如果攻击者了解欺诈检测系统的优点和缺点,他们可以使用它来改变他们的技术以保持不被发现,从而完全绕过该模型。医疗保健企业可能对数据中毒更敏感。医学领域是使用其庞大的历史数据集通过机器学习预测结果的早期采用者。数据中毒攻击可能导致误诊、改变药物试验结果、歪曲患者群体等。安全业务本身目前专注于机器学习绕过攻击,这些攻击被积极用于部署勒索软件或后门网络。在部署机器学习驱动的系统时,首席信息安全官(CISO)应牢记哪些关键安全注意事项?今天可以给首席信息安全官(CISO)的最佳建议是接受我们在新兴技术中学到的模式。就像我们在云基础设施方面的进步一样,机器学习部署代表了一个需要专门防御的新攻击面。使用Microsoft的Counterfit或IBM的AdversarialRobustnessToolbox等开源攻击工具,进行对抗性机器学习攻击的门槛每天都在降低。另一个主要考虑因素是,其中许多攻击并不明显,如果不寻找它们,可能无法了解它们正在发生。作为一名安全从业者,我对勒索软件见惯了,这是企业被攻击、数据被锁定或被盗的明显迹象。对抗性机器学习攻击可以定制为在更长的时间内发生,并且一些攻击(例如数据中毒)可能是一个较慢但具有永久破坏性的过程。
