苹果高管承认,扫描iCloud相册等功能造成公众混淆,还确保数据不会被使用承认苹果对新功能的发布处理不当,并承认这些功能造成公众混淆。CraigFederigh回应的功能是苹果8月5日公布的儿童安全功能,包括新版照片筛查系统(ChildSexualAbuseMaterial,儿童性虐待内容,简称“CSAM”)、iMessage通讯安全功能(通过iMessage通知父母和孩子正在浏览的敏感内容)、更新Siri和搜索功能。在过去的两周里,公众的争议集中在两个功能上,CSAM和iMessage通信安全。由于CSAM在执行时会扫描用户的iCloud相册,因此iMessage通信安全功能涉及到对用户聊天图片的检测。Apple软件工程高级副总裁CraigFederigh告诉《华尔街日报》,Apple在实施CSAM时设置了“多级审计”,以保护Apple的系统,并确保这些数据不会被政府或其他第三方使用。CSAM在将用户照片上传到iCloud之前将其与已知的CSAM散列图像进行匹配。检测到异常的帐户将由Apple手动审查,并可能会报告给国家失踪与受虐儿童中心(NCMEC)。当儿童发送或接收色情图片时,iMessage通信安全功能就会发挥作用。如果孩子通过iMessage发送或接收色情图片,他们会在查看前收到警告,图片会被模糊处理,家长可以选择是否收到警告。克雷格·费德里(CraigFederigh)还透露了有关该系统保障措施的一些新细节。具体来说,只有当用户的相册中有30张符合CSAM图片库的儿童色情图片时,苹果才会获取用户的账号以及这些图片的具体情况。他表示,苹果只会获取这些与图片库相匹配的图片,而不会获知用户的其他图片。Apple将对照国家失踪与受虐儿童中心(NCMEC)的列表检查iCloud照片,寻找与已知CSAM图片的精确匹配。而且,Apple直接在用户的设备上扫描图片,而不是在iCloud服务器上远程扫描。苹果此前曾表示,CASM系统只会在美国推出,其他国家将视具体情况考虑何时推出。Apple还告诉媒体,它将在所有国家/地区的操作系统上发布已知CSAM的哈希值数据库,但扫描功能目前仅适用于美国设备。《华尔街日报》进一步澄清,将有独立审核员核实涉及的图像。
