现在,越来越多的工具可以用来防止面部识别系统对私人照片进行训练将个人照片上传到互联网似乎是一件很容易的事,所以这里我们的问题去吧,照片发布到互联网上后,谁可以访问它们?他们做了什么?使用什么机器学习算法来训练它们?Clearview已经为美国执法部门提供了一种面部识别工具,该工具可以训练数百万张私人照片,这似乎只是一个开始。事实上,任何具有基本编码技能的人都可以构建面部识别软件,这意味着该技术比以往任何时候都更容易从多个角度被滥用,包括性骚扰、种族主义、政治压迫和宗教迫害。许多人工智能研究人员正在推动和开发人工智能无法从个人数据中学习的方法。本周,最新的两份报告将在人工智能大会ICLR上呈现。“我不喜欢别人从我这里拿走不属于他们的东西,我想很多人都有同感,”芝加哥大学的艾米丽·温格(EmilyWenger)说。去年夏天,Wenger和她的同事开发了第一个反人工智能工具。数据中毒并不是什么新鲜事。通过删除公司的数据,或用虚假示例污染数据集,公司更难训练准确的机器学习模型。但这些努力通常需要涉及数百万人或数千人的集体行动才能产生影响。温格新技术的独特之处在于它可以通过一张人脸照片来达到目的。澳大利亚迪肯大学的丹尼尔·马说:“这项技术可以使用单个人的照片作为密钥来锁定数据,是人工智能时代保护人们数字权利的一种新的前线防御工具。”当前的大多数工具,包括Fawke,都使用相同的基本方法:对人眼难以察觉的图像进行细微更改,但可以欺骗AI,使其错误识别照片中的物体。具体信息。这种技术非常接近对抗性攻击,其中输入数据的微小变化可能会迫使深度学习模型犯大错误。为Fawkes提供一组自拍照,它会为图像添加像素级扰动,防止最先进的面部识别系统识别照片中的人物。与以前的方法不同,它不会对图像进行重大更改。Wenger和她的同事在许多广泛使用的商业面部识别系统上测试了该工具,包括亚马逊的AWS识别系统、微软的Azure和中国旷视科技公司开发的Face++系统。在一个包含50张图像的数据集的小型实验中,Fawkes对所有图像进行了100%的处理,并且在调整后的人的图像上训练的模型无法在新图像中识别出这些人的图像。篡改的训练图像阻止了工具准确地表示人类表情。FawkesProject网站的下载量已接近50万次。其中一位用户还构建了一个在线版本,以方便人们使用(尽管Wenger不保证第三方使用该代码,并警告说:“你不知道处理数据时发生了什么。”)。温格说,目前还没有移动应用程序,但没有什么能阻止人们制作一个应用程序。Fawkes将阻止新的面部识别系统识别您——Clearview是下一个。但它无法破坏已在未受保护的图像上进行训练的现有系统。然而,技术在不断改进。Wenger认为,ValeriaCherepanova和她在马里兰大学的同事开发的工具可以很好地解决这个问题。这个名为LowKey的工具通过基于更强大的对抗性攻击对图像应用扰动来扩展Fawkes,这种对抗性攻击可以愚弄预训练的商业模型。和Fawkes一样,LowKey也可以在网上找到。Ma和他的同事们开发了更强大的工具,可以将图像变成所谓的不可学习的例子,有效地让人工智能完全忽略你的自拍。温格说:“我觉得福克斯可以骗过人工智能模型,让训练得到错误的结果,这很棒,而且这个工具让训练模型对你一无所知。”图中前三张照片均来自网络。下载图像,将它们变成以下三个无法学习的示例,它们的存在被面部识别系统忽略了。与福克斯不同,不可学习的例子不是基于对抗性攻击。Ma的团队没有对图像进行更改以迫使AI犯错,而是添加了AI在训练期间忽略的微小更改。稍后显示图像时,它对图像内容的评估并不比随机猜测好多少。实验表明,不可学习的例子比对抗性攻击更有效,因为它们不能被反向训练。人工智能看到的例子越具有对抗性,就越容易识别它们,但马云和他的同事们基本上阻止了人工智能对图像进行训练。Wenger将自己投入到一场新的持续战斗中,她的团队最近注意到MicrosoftAzure的面部识别服务不再被他们的一些图像所愚弄。“它对我们生成的隐藏图像突然变得非常强大,”她说。“我不知道那是怎么回事。“微软可能已经改变了它的算法,或者AI可能已经接受了足够多的福克斯图像的训练,从而学会了如何识别它们。无论如何,温格的团队上周发布了该工具的更新版本,再次针对Azure。”这是另一场猫捉老鼠的军备竞赛。'她说。对于温格来说,这是一个关于互联网的故事。“像Clearview这样的公司正在利用免费提供的数据做他们想做的事,”她说。从长远来看,监管可能会有所帮助,但不会阻止公司钻空子。“在法律上可以接受的东西和人们真正想要的东西之间总是存在脱节,”她说。像Fawkes这样的工具正好填补了这个空白。
