当前位置: 首页 > 科技观察

Apple已扫描iCloud邮件中的CSAM但未扫描iCloud照片

时间:2023-03-17 15:14:39 科技观察

Apple已确认自2019年以来一直在扫描iCloud邮件中的CSAM,并且一直在这样做。但是,它不会扫描iCloud照片或iCloud备份。该公司的反欺诈负责人此前曾发表过一个相当离奇的说法,称苹果是“传播儿童色情内容的最佳平台”。这立即引出了一个问题,如果该公司不扫描iCloud照片,它怎么会知道这一点?还有一些其他线索表明Apple正在进行某种CSAM扫描。Apple儿童安全页面的存档版本指出:“无论我们的产品在哪里使用,Apple都致力于保护我们生态系统中的儿童,我们将继续支持这一领域的创新。我们在软件平台的各个层面和强有力的保护下工作在整个供应链中开发。作为这一承诺的一部分,Apple使用图像匹配技术来帮助检测和报告剥削儿童的情况。就像电子邮件中的垃圾邮件过滤器一样,我们的系统使用电子签名来寻找可疑的儿童剥削。我们验证每个“通过个人审查进行匹配。包含儿童剥削材料的帐户违反了我们的服务条款和条件,任何使用此材料的帐户都将被禁用。”此外,该公司首席隐私官在2020年1月也表示了同样的看法。Apple首席隐私官JaneHorvath在一次技术会议上表示,该公司使用屏蔽技术来查找非法图像。如果Apple发现儿童剥削材料的证据,它将禁用帐户,该公司表示,但未具体说明方式。苹果公司自己表示,它从不扫描iCloud中的照片。但是,苹果公司证实,自2019年以来,它一直在扫描iCloud邮件中发送和接收的CSAM附件。电子邮件未加密,因此扫描附件时通过Apple的服务器将是一项微不足道的任务。Apple还表示它正在对其他数据进行一些有限的扫描,但不会说那是什么,只是暗示它是一个小扫描。它确实说其他数据不包括iCloud备份。Apple每年向CSAM提交的报告总数有数百份,这意味着电子邮件扫描不会提供任何证据表明Apple的服务器存在重大问题rs。原因可能是其他云服务正在扫描CSAM的照片,而Apple没有。如果其他服务禁用帐户上传CSAM,但iCloud照片没有(因为Apple不扫描),那么逻辑推论是Apple平台上的CSAM比其他任何地方都多。关于Apple的CSAM计划的争议仍在继续,两名普林斯顿学者表示,他们设计了一个基于与Apple完全相同的方法的扫描系统原型,但由于政府滥用的风险而放弃了这项工作。