研究人员在iOS内置的哈希函数算法中发现了碰撞攻击漏洞,引发了对苹果CSAM扫描系统的新关注,但苹果公司表示,该发现并未威胁系统的完整性。该漏洞影响一种名为NeuralHash的哈希算法,该算法允许Apple检查图像是否与已知的虐待儿童图像完全匹配,而无需拥有任何图像或收集有关任何不匹配图像的信息。周二,一位名叫AsuharietYgvar的GitHub用户发布了一个重建的Python版本的NeuralHash代码,他声称该代码是从以前的iOS版本中逆向工程而来的。这篇GitHub帖子还包含有关如何从当前macOS或iOS构建中提取NeuralMatch文件的说明。生成的算法是NeuralHash的通用版本,而不是所提议的CSAM系统在部署时将使用的特定算法,但它仍然给出了该算法的优缺点的一般概念。早期测试表明它可以容忍图像大小调整和压缩,但不能容忍裁剪或旋转。AsuharietYgvar在Reddit上分享了新代码,希望这能帮助外界更好地了解NeuralHash算法,并在它在所有iOS设备上启用之前了解它的潜在问题。此后不久,名为CoryCornelius的用户发现算法中存在碰撞攻击漏洞,可以生成具有相同哈希值的两张图像。这是一个重要的发现,因为Apple表示对其CSAM系统的额外保护将防止它被利用。8月5日,Apple推出了一个新系统,用于阻止iOS设备上的虐待儿童图像。在新系统下,iOS将检查本地存储的文件与国家失踪与受虐儿童中心(NCMEC)生成和维护的虐待儿童图像的哈希值。该系统采用了多项隐私保护措施,将扫描限制为iCloud照片,并设置了在生成警报之前找到多达30个匹配项的阈值。然而,隐私倡导者仍然担心扫描本地存储文件的影响,而新发现增加了对该系统可能被利用的担忧。Apple表示,考虑到感知哈希算法的已知局限性,其CSAM扫描系统在构建时就考虑到了碰撞攻击。该公司强调了一种与NeuralHash分开的辅助服务器端哈希算法,其细节并未公开。如果被NeuralHash碰撞攻击的图片被系统标记,则将其发送到辅助服务器进行检测,并在人工审核之前确定为误报。
