人脸识别设备进入民用市场以来,一直饱受争议——安全吗?答案在一次会议上得到了解释。
“我们最终可以在一些面部识别设备中实现任何人都可以通过验证的效果。
” AI安全研究所的研究员·刘昭在ISC会议上表示。
据了解,AI安全研究院隶属于未来安全研究院,一直专注于人工智能与安全的前沿技术研究,涉及AI基础设施安全、AI算法安全、AI数据安全等方面的研究工作和其他方向。
在人工智能基础设施安全方面,已发现多个人工智能基础软硬件漏洞。
此外,AI安全研究院还联合清华大学、西安交通大学的研究人员,发现AI应用中图像缩放模块的漏洞,并提出了一种新的数据流降维攻击方法,影响了主流国内外AI云服务。
该研究成果发表在信息安全领域国际顶级会议USENIX Security上。
在本次ISC会议的人工智能与安全论坛上,刘昭以某款人脸识别设备允许任何人通行为例,解释道不仅AI算法存在漏洞,其所依赖的关键基础设施也可以遭受攻击,进一步暴露了人工智能关键基础设施的安全风险。
白帽黑客“欺骗”面部识别设备。
年底,工信部发布报告称,2019年,复杂动态场景下人脸识别有效检测率超过97%,正确识别率超过90%。
同样在这一年,刷脸支付入选《麻省理工科技评论》全球十大突破性技术榜单。
苹果新款iPhoneX发布的FaceID将面部识别技术推向了高潮。
三年来,关于人脸识别技术安全风险的讨论无数。
在ISC会议上,AI安全研究院介绍了某款人脸识别设备存在的诸多安全问题,比如向终端特定端口发送一些后门指令、终端设备接收云端数据时出现堆栈溢出问题、以及云服务器中的堆栈溢出。
其中一些涉及未经授权的访问和目录遍历等风险。
正是通过攻击上述漏洞,我们最终才能达到任何人都可以在人脸识别设备中通过验证的效果。
值得注意的是,这次攻击并不是针对AI算法的攻击,而是针对AI算法所依赖的基础设施的攻击。
“基础设施攻击最终可能会更快地达到攻击效果。
”刘昭在演讲中表示,大多数研究者更倾向于研究算法安全,比如对抗性样本攻击、后门攻击等。
虽然人工智能基础设施安全风险巨大,但其严重性很容易被忽视。
这正是刘昭在ISC会议上演讲的主题——人工智能关键基础设施安全风险。
据介绍,AI基础设施主要分为三个关键部分:一是深度学习框架,包括框架自身的代码实现、第三方图像处理库、算子库等;二是深度学习框架。
第二是硬件相关,包括GPU驱动、芯片安全等;最后是云平台,包括虚拟化、Web平台等。
AI关键基础设施面临三重风险 据介绍,AI关键基础设施在三重方面面临一定的安全风险水平。
针对深度学习框架的安全风险。
刘昭解释说,深度学习框架主要可以分为云学习框架和终端学习框架。
云框架安全风险主要来自于自身代码的实现和第三方依赖库问题;终端框架安全风险主要存在于模型网络参数、模型网络结构、模型转换过程等方面。
据了解,AI安全研究院在多个深度学习框架及其依赖组件中发现了多个漏洞,例如OpenCV、hdf5、numpy等,主要针对硬件相关的安全风险。
据NVIDIA官网统计,截至今年7月,GPU驱动漏洞数量已达数百个;芯片漏洞包括 Spectre 和 Meltdown 等。
Spectre漏洞可导致敏感数据泄露并执行特定代码,而Meltdown漏洞可导致用户态获取特权内存。
数据显示,这些漏洞影响英特尔和部分ARM处理器。
云平台的安全风险。
AI安全研究院表示,用于深度学习任务的节点性能强大,因此总会有一些攻击者想要非法利用这些资源进行挖矿。
例如,今年6月,微软报告部分Kubeflow存在未授权访问问题,导致大量设备被非法挖矿。
攻击者可以通过各种方法未经授权访问 Kubeflow 的控制面板并使用矿工部署容器。
随着人工智能技术的不断发展,人工智能系统的漏洞风险给安防行业带来了巨大的挑战。
其中,AI关键基础设施存在容易被忽视的安全问题。
但与此同时,AI系统的安全问题也给安防行业带来机遇。
。
“只有保证AI系统的安全,我们才能放心地享受AI带来的便利,因此保证系统中AI关键基础设施的安全至关重要。
” AI安全研究院表示,AI关键基础设施的安全问题可以通过权限控制、访问隔离、参数过滤等措施来缓解。
针对人工智能关键基础设施的安全问题,需要建立多维度、一体化的风险评估方法和相应的防御措施。
未来,人工智能安全研究院将聚集国内外顶尖的人工智能安全创新要素,研究人工智能系统各方面的安全问题,突破人工智能安全攻防重大关键共性技术,打造自动化安全风险评估平台,占领人工智能安全技术制高点。
,形成国际领先的人工智能安全评估与管控能力。