Deepfake从诞生之日起就一直朝着人性的阴暗面奔跑。 B站用户要求蔡徐坤以六岁男孩的脸以C位偶像练习生身份出道。民间技术流已经可以享受到AI换脸教程了。但每个人也更容易成为受害者:假绑架视频勒索诈骗,不雅视频破坏名誉,恐怖视频制造混乱,这一切都因为Deepfake的开源技术变得比以往任何时候都容易。 让一群名人放上布什的面部动图TED在PS破坏了公众对图片的信任之后,deepfakes正在破坏公众对视频的信任。没有人愿意看到他们在互联网上说着他们没有说的话。许多人身伤害无处可诉,因为影响不够大。 美国正在组建deepfake打假团队。不仅大学实验室和研究中心在寻找deepfakes的缺陷,一种创业趋势也正在兴起。 但这是假AI和假AI之间的“你有好方案,我有墙梯”的比赛。每一篇检测到Deepfake的论文似乎都能够促使造假技术修复自身的漏洞并将其提升到一个新的水平。 关上deepfakes的潘多拉魔盒,他们能做到吗? 以防伪Deepfake创业 ShivaKintali离开了他当了4年讲师的普林斯顿计算机系,正在硅谷创业识别假视频。他告诉硅星,他的合作伙伴包括警察、记者、保险公司等,利用机器学习来寻找假视频的破绽,并利用区块链等技术记录信息,协助识别。 Kintali的网站已经可以上传图片、音频、视频来分析检测是否有修改痕迹。同时,他正在开发一款手机拍照应用,利用人工智能为图片添加时间和地点水印,并将图片的原始信息打印在区块链上。一旦传播的图片信息与原图不符,就很容易判断真伪。 这些产品希望能帮助记者、媒体公司、政治竞选团体、执法机构(例如FBI、NSA)、保险公司(面临因假事故照片而导致的保险索赔问题)和大公司(例如Facebook、Twitter、Redditt,PornHub),以防止虚假视频、音频和照片在其平台上传播。 因为Deepfake降低了视频造假的门槛。面对真假难辨的视频资料,记者不知道能不能发布,保险公司不知道理赔还是诈骗报警。警方取证后,还需要专业的工具来验证图片和视频的真伪。 目前流传的假视频大多是“浅假”,但因为数量多,惹来了无数的麻烦。斯坦福大学的研究人员从鉴定公司了解到,目前主要存在三大问题困扰着他们:太多、太少可用的鉴定时间,以及缺乏标准化的工具。 因此,研究人员正在寻找可以大规模应用的防伪方法。图片和视频在脸书、推特等社交网络上的爆炸式传播,让谣言被辟谣的时间窗口越来越短。普通民众也不可能聘请专业人士进行鉴定。 第一商业图片验证平台Truepic推出智能相机应用。用户拍摄的图片会上传到服务器,照片和视频在创建时会进行身份验证和唯一编码。相机应用程序捕获设备的传感器数据,在传输前对照片或视频进行加密,运行20多次图像取证测试,并在几秒钟内将图像的加密签名印在公共区块链上,使信息防篡改。 这是一种“自证清白”的方式,适合电商平台用户和公民记者。如果用户将图像发送给收件人,Truepic允许收件人验证图像的来源和元数据的完整性。任何二次传播的多媒体素材,都可以与区块链上的原始信息进行比对,鉴别真假。 在Deepfake的威胁下,识别图片和视频的真伪成为了相机应用的卖点。但此类营利性服务引发了用户新的隐私问题。毕竟,谁来确保Truepic不作恶? 算法设计算法 硅谷SRI国际人工智能中心“以毒攻毒”,利用假视频训练算法,让算法更好识别假踪迹。当人们将视频上传到社交网站时,平台需要对视频进行重新编码。这是检测假视频的好时机。 但是随着Deepfake的漏洞一天天优化,用算法解决算法的难度越来越大。 防伪AI本来就是训练假冒AI的一部分,两者正好处于生成对抗网络的两端。一个生成器,一个判别器,道高一丈,魔高一丈。 既然Deepfake的技术在于篡改数据,那么认证者就是在寻找所有篡改数据的痕迹。一种方法是基于像素的视频检测。视频实际上是一系列数千帧的图片。详细检测每个像素点的变化轨迹是一项非常庞大的工程。 此外,假面部表情目前存在缺陷。假面部表情通常与其他部分不一致,计算机算法可以检测图片或视频中的这种不一致。加州大学伯克利分校的研究人员比较了真实人物和假人物的面部差异UCBerkeley 例如,第一代Deepfake视频中的人物以一种奇怪的方式眨眼。 纽约州立大学奥尔巴尼分校计算机科学副教授SiweiLyu曾写道,成年人的眨眼间隔是2秒到10秒,需要十分之一到四分之一秒眨眼。这是正常视频角色应该闪烁的闪烁频率,但许多Deepfake视频角色无法做到这一点。 当时由于缺乏闭眼图像数据,算法的训练并不完善,视频中人物的面部总有一种“不对劲”的不协调感。 但是,可以通过使用闭眼面部图像或视频序列进行训练来改善眨眼间隔。假视频的质量总会提高,研究人员需要继续寻找检测其漏洞的方法。 南加州大学研究员WaelAbd-Almageed表示,社交网络可以使用算法来大规模识别deepfakes。为了使这个过程自动化,研究人员首先建立了一个神经网络,可以“学习”人类说话时移动方式的重要特征。然后,研究人员使用这些参数将虚假视频的堆叠帧输入AI模型,以检测随时间变化的不一致性。 普渡大学的研究人员采用了类似的方法,认为随着用于训练模型的Deepfake视频数据量的增加,该模型将变得更加准确,并且更有可能检测到假视频。 美国2020年大选在即。如何防止Deepfake从低俗娱乐发展到操纵舆论,是研究者迫切的动机之一。希望一键打假的速度赶上一键换脸的速度。
