人工智能(AI)可能为各种规模的企业开辟新的机会和市场,但对于不同的群体而言,该过程为欺骗机器学习(ML)系统提供了机会。“数据中毒”是一种特殊的对抗性攻击,是针对机器学习和深度学习模型行为的一系列技术。恶意行为者可以使用数据中毒为自己打开机器学习模型的后门,从而绕过由AI算法控制的系统。数据中毒攻击旨在通过插入错误标记的数据来修改模型的训练集,以诱使其做出错误的预测。专家表示,这些每天都被忽视的攻击不仅让企业损失了潜在的收入,而且还会感染机器学习系统,这些系统会继续重新感染依赖用户输入进行持续训练的机器学习模型。麦肯锡将AI-ML技术的潜在全球影响定为10万亿至15万亿美元,并表示该领域的早期领导者已经看到五年总股东回报增加了250%。但是,当麦肯锡向1,000多名高管询问他们的数字化转型工作时,72%的受访组织表示他们没有成功扩展。即使是刚接触黑魔法的黑客也发现数据中毒攻击相对容易执行,因为创建“污染”数据通常可以在不知道系统受到影响的情况下完成。操纵自动完成以影响产品评论和政治虚假宣传活动每天都在发生。数据中毒攻击会降低机器学习服务的可靠性针对机器学习的攻击通常被认为集中在两个要素上:攻击者拥有的信息和攻击的时机,这说明了ML算法、模型和数据安全解决方案提供了什么最近由HiddenLayer的EoinWickens、MartaJanus和TomBonner进行的研究。攻击者可以通过修改现有数据集中的条目或通过将篡改的数据注入数据集来执行数据中毒,这些数据集可以更容易地输入到那些不断重新训练的基于在线机器学习的服务中。有时,黑客只是想降低机器学习模型的整体可靠性,也许是为了实现与ML模型旨在产生的检查相反的效果。在更有针对性的攻击中,目标可能是更具体的错误结果,同时保持其他人的准确性,这可能会在很长一段时间内被忽视。包括自动完成、聊天机器人、垃圾邮件过滤器、入侵检测系统、金融欺诈预防甚至医疗诊断工具在内的技术都容易受到数据中毒攻击,因为它们使用在线培训或持续学习模型。NCCGroup首席科学家ChrisAnley在他最近的论文《机器学习系统的实际攻击》中解释说,黑客和不良行为者可能旨在通过精心制作的不良数据来混淆系统,以添加“后门”行为。“例如,可以操纵用于身份验证的面部识别系统,以允许任何佩戴特定眼镜的人被归类为特定用户,否则系统将正常运行,”安利解释道。“现在需要采取行动,”Anley说,因为越来越多的证据凸显了必须解决的问题。用于训练系统的敏感数据通常可以被攻击者恢复并用于攻击系统,而神经网络分类器可能“脆弱”,因为它们可能被迫对数据进行错误分类。他补充说,现有的对策可能会降低准确性,甚至为其他攻击打开大门。远程黑客可以从训练有素的ML模型中提取高保真数据。真正的副本,为他们提供一个驯服的例子来观察和学习未来攻击。”虽然由于可能存在的各种缓解措施,利用这些问题并不总是可行的,但这些新形式的攻击已经被证明并被用于实际场景中,这绝对是可行的。安利说。
