当前位置: 首页 > 科技观察

对抗性章鱼:针对人脸识别引擎的攻击演示

时间:2023-03-18 14:30:43 科技观察

研究人员提出了针对基于AI的人脸识别引擎的对抗性攻击演示。近日,Adversa公司的研究人员分析发现了一种新的攻击人脸识别系统的方法——ADVERSARIALOCTOPUS。研究发现,当前基于AI的面部识别工具容易受到可能造成严重后果的攻击。此外,许多面部识别系统存在偏差,可能会产生错误的结果。攻击细节研究人员开发了一种针对人工智能驱动的人脸识别系统的攻击方法,只需修改照片即可使人工智能系统误识别为其他人。造成这种情况的原因是目前人脸识别算法和应用不足,该攻击可用于基于计算机视觉算法的投毒攻击场景和绕过场景。这种新型攻击可以绕过人脸识别服务、应用程序和API,包括目前最先进的人脸识别算法引擎PimEyes。主要特点是它结合了不同的方法来提高效率。针对PimEyes的攻击框架基于以下方法:为了提高可迁移性,使用不同的面部识别模型和随机噪声进行训练;为提高准确率,计算审计网络每一层的对抗变化,使用随机人脸检测框;此外,对每个像素进行微小的更改,并使用特殊函数来平滑噪声。攻击demo研究人员提出的攻击方式为黑盒、一次性成功、无声、可迁移,可绕过人脸识别AI模型和API,包括最先进的在线人脸识别搜索引擎PimEye。com。AdversarialOctopus攻击演示如下:https://www.youtube.com/embed/wzXA8TXfWq0?feature=oembed谁可以利用这些漏洞?这种攻击是一种黑客手段,也就是说,它对搜索引擎的算法没有影响。根据我们的理解,该漏洞利用是可转移的,可以应用于其他使用人脸的人工智能应用程序。攻击者可以修改个人照片来毒害和绕过许多算法。犯罪分子可以窃取个人身份并绕过银行、交易平台和其他远程身份验证系统使用的基于AI的生物识别身份验证或身份验证系统。犯罪分子还可以利用这种攻击来隐藏他们在社交媒体中的活动。攻击范围是什么?该攻击的主要特点是它适用于多种不同的AI实现,包括在线API和物理设备。此外,可以针对不同的目标环境调整攻击。这就是AdversarialOctopus这个名字的由来。如何应对这种攻击?针对此类攻击,研究人员建议:首先是对抗测试。类似于传统的人工智能系统渗透测试。所有人工智能系统都应该强制进行对抗性测试。通过对抗性训练、模型强化、数据清理和其他防御,在对抗性场景中开发和训练AI。在关键决策应用程序中检测AI的新威胁,并跟踪反机器学习的最新进展。查看更多:https://adversa.ai/face-recognition-attack-adversarial-octopus本文翻译自:https://adversa.ai/face-recognition-attack-adversarial-octopus