网络安全现在是微软最关心的问题,因为复杂的网络攻击越来越多。正因为如此,微软也在不断更新其安全基础设施,以保护自己免受网络安全威胁。最近,微软通过发布一款名为Counterfit的新工具解决了AI系统安全问题。Counterfit是微软开发的开源工具,用于企业或组织中人工智能系统的自动化安全测试。鉴于人工智能系统在各个行业的广泛使用,最终目标是让企业对其人工智能系统的稳健性和可靠性充满信心。微软指出,在其调查的28家企业/组织中,有25家认为他们没有适当的机制来保护人工智能系统,他们的安全专业人员也没有很好地处理针对他们的威胁。Counterfit最初是一组可用于攻击AI模型的脚本。微软首先在自己的内部测试中使用它,但现在,Counterfit已经发展成为一种自动化工具,可以大规模攻击多个AI模型。该公司表示,它已成为微软AI业务的主要组成部分,可用于对目前正在开发和生产的AI服务执行和自动化对抗性安全测试。使用Counterfit的好处是它与环境、模型和数据无关。这意味着它可以在本地、边缘和云端使用,以测试依赖几乎任何形式的输入数据(包括文本和图像)的任何类型的AI模型。微软表示,对于使用Metasploit或PowerShellEmpyre的安全团队来说,Counterfit易于使用。它可用于渗透测试和漏洞扫描,还可以记录对AI模型的攻击,因此数据科学家可以利用其遥测技术进一步加强其AI系统的安全性。您可以前往开源项目的GitHub页面:https://github.com/Azure/counterfit了解有关Counterfit以及如何在企业中部署它的更多信息。
