近日,应欧盟和美国政府的要求,值得信赖的人工智能研究和咨询公司Adversa发布了业界首份全面的人工智能安全和可信度研究报告。将Gartner的相关预测与最近发生的针对AI的对抗性攻击事件相结合。Adversa咨询委员会前Gartner分析师OliverRochford指出,建立对机器学习安全性的信任至关重要。我们要求人们信任AI的黑匣子(这很难),为了让AI革命成功,我们必须建立信任……AI的安全风险太大,收益太大.Adversa的CTOEugeneNeelou表示:“为了提高可信人工智能领域的安全意识,我们在一年多前启动了一个项目,分析过去十年来学术界、工业界和政府的发展情况。结果令人瞠目结舌。经测试人工智能安全和偏见问题普遍存在于系统中,缺乏适当的防御,但对人工智能安全的兴趣呈指数级增长。企业应密切跟踪最新的人工智能威胁,实施人工智能安全意识计划,并保护他们的人工智能开发生命周期,重要的是现在就开始。”报告显示:AI领域安全形势极其恶劣;人工智能安全研究论文在过去两年呈爆炸式增长;美中欧在可信AI研究领域竞争激烈,中国加速反超;AI人工智能领域面临十大安全威胁。以下是安全牛整理的报告中的一些亮点:真实世界的AI安全事件正在快速增长:在汽车、生物识别、机器人和互联网行业,真实世界的AI安全事件正在快速增长。作为人工智能的早期采用者,最受关注的行业是互联网(23%)、网络安全(17%)、生物识别(16%)和自治(13%)。人工智能安全研究论文呈爆炸式增长:过去两年,政府、学术界和工业界发表了多达3500篇关于人工智能安全的研究论文,超过过去20年的总和。美国、中国、欧盟之间的激烈竞争预计将继续争夺可信的人工智能:美国发表了47%的研究论文,但中国正在获得动力。人工智能还没有为黑客攻击做好准备:人工智能行业还没有为现实世界的黑客攻击做好充分准备,60种最常用的机器学习(ML)模型平均至少有一个安全漏洞。攻击者最针对的AI技术领域是计算机视觉:最受攻击的AI领域是计算机视觉(65%),其次是分析、语言和自治系统。图像、文本和记录是最脆弱的AI数据集:图像分类和人脸识别最常被攻击的AI应用:互联网、网络安全、生物识别和汽车行业是AI的重灾区网络安全问题:AI面临十大安全威胁:旁路攻击(通过对抗性样本操纵AI决策和结果)81%中毒攻击(注入恶意数据以降低AI系统的可靠性和准确性)6.8%推理攻击(推断特定数据样本是否用于AI训练)3.5%后门攻击2.3%模型提取攻击(通过恶意查询命令暴露AI算法细节)1.9%归因推理攻击1.3%木马攻击1.2%模型反转攻击(通过恶意查询获得的公开输出数据推断输入数据)1.2%反水印攻击(绕过AI系统对版权和真实性的检测)0.6%重编程攻击(改变AI非法用途模型)0.2%参考:https://adversa.ai/report-secure-and-trusted-ai【本文为专栏作者“安安牛”原创文章,转载请通过安安牛获取授权(微信公众号id:gooann-sectv)转载】点此查看该作者更多好文
