当前位置: 首页 > 科技观察

数据中毒:下一个大威胁_0

时间:2023-03-19 16:00:38 科技观察

使用人工智能(AI)和机器学习(ML)的安全软件的数据中毒可能是下一个重大网络安全风险。SANS技术研究所研究主任JohannesUllrich在RSA2021的主题演讲中表示,这是每个人都应该关注的威胁。“在机器学习方面,最基本的威胁之一是攻击者实际上能够影响我们用来训练模型的样本,”Ullrich在RSA上说。随着这种新威胁的迅速出现,防御者必须学会如何发现数据中毒攻击以及如何预防它们。否则,将根据不良数据做出业务和网络安全决策。什么是数据中毒?当攻击者篡改用于训练AI模型的数据时,它实际上是“中毒”了。因为AI依赖于这些数据来学习如何做出准确的预测,所以算法生成的预测将是不正确的。威胁行为者现在正在以可用于网络攻击的方式操纵数据。例如,他们可以通过更改推荐引擎的数据来做很多事情。从那里,他们可以让某人下载恶意软件应用程序或单击受感染的链接。数据中毒非常危险,因为它使用人工智能来对付我们。我们越来越相信人工智能可以预测我们个人和职业生活的许多方面。从帮助我们选择要观看的电影到告诉我们哪些客户可能会取消他们的服务,它无所不包。随着COVID-19导致数字化转型加速,人工智能变得越来越普遍。数字交易和连接是常态而不是例外。数据中毒和网络安全工具威胁行为者也在使用数据中毒来渗透防御者用来发现威胁的工具。首先,他们可以更改数据或添加数据以产生错误的分类。此外,攻击者还利用数据投毒产生后门。对AI工具的数据中毒攻击的增加意味着企业和机构可能对转向这些工具犹豫不决。这也让防御者更难以知道哪些数据值得信任。在主题演讲中,乌尔里希表示,该解决方案始于对AI网络安全工具使用的模型的全面理解。如果您不了解是什么在保护您的数据,就很难判断这些技术和工具是否准确。识别数据中毒攻击发现数据中毒攻击具有挑战性且耗时。所以,受害者往往会发现,等他们发现问题时,损失已经很大了。此外,他们不知道哪些数据是真实的,哪些数据被操纵过。数据中毒攻击通常是一项内部工作,并且发生的速度非常缓慢。两者都使数据的变化很容易被遗漏。在RSA会议“Evade、Poison、Extract和Reason:防御和评估工具”期间,IBMResearch的AbigailGoldsteen建议网络安全专业人员使用AdversarialRobustness360Toolbox(ART)来识别、阻止和防止数据中毒攻击。这个开源工具包允许开发人员快速创建、分析和攻击,然后快速为机器学习模型选择正确的防御。使用我们拥有的工具那么,你不应该使用人工智能吗?在这一点上,完全放弃它是不切实际的。这样做会导致威胁行为者简单地使用AI和ML来制造我们无法防御的攻击。相反,作为防守者,不能盲目相信自己拥有的工具和数据。更好地了解算法的工作原理并定期检查异常数据将有助于我们提前预防攻击。