大数据文摘出品:王野近日,一些欧洲资深议员被搞糊涂了。他们收到了一些“俄罗斯反对派人士”的视频会议邀请,正经讨论了克里米亚问题等政治事务,却发现这些所谓的“俄罗斯反对派人士”被人用Deepfake伪造了人脸。受骗者包括拉脱维亚议会外交事务委员会主席里哈兹·科尔斯,以及来自爱沙尼亚和立陶宛的议员。英国外交事务特别委员会主席汤姆图根哈特也表示,他也是目标之一。Deepfake真有前途,终于从娱乐圈搞到了国际政治。拉脱维亚议会外事委员会主席在聊天发现自己被骗后,发推抱怨。讨论俄罗斯政治和克里米亚的视频电话会议。RihardsKols说他直到后来才意识到自己可能是高科技骗局的受害者。RihardsKols在推特上发布了两张照片。左边是真实的俄罗斯反对派人物列昂尼德沃尔科夫,右边是Deepfake在视频会议中生成的列昂尼德沃尔科夫。“这是一个非常沉痛的教训,但也许我们还应该感谢这个假沃尔科夫给我们,我们的立陶宛同事和爱沙尼亚同事上了这一课,”他写道。“显然,所谓的真相衰减或后真相和后事实时代有可能严重威胁当地和国际国家、政府和社会的安全与稳定。”被别人冒充的沃尔科夫自然是怒了。VladimirKuznetsov(Vovan)和AlexeiStolyarov(Lexus)是西方官员针对的俄罗斯恶作剧二人组,是幕后黑手。曾恶搞多国政客的弗拉基米尔·库兹涅佐夫(Vovan)和阿列克谢·斯托利亚罗夫(Lexus)在Facebook上获悉,RihardsKols并未否认与RihardsKols的谈话,称他会“保守秘密”。他否认使用Deepfake让自己看起来像沃尔科夫。他写道:“沃尔科夫很可能收到了错误的信息。”换脸背后的技术支撑——Deepfake换脸“吴秀波”从北京卫视到迅速沦陷的换脸APPZao,再到如今在国际政治上“搅水”,其背后的技术Deepfake,在AI圈早已家喻户晓。Deepfake是一种利用AI深度学习,将一张照片中一个人的脸换成另一个人的照片的技术。通过这种技术,我们可以创建非常逼真的“假”视频或图片,因此得名“换脸”。研究人员使用自动编码器神经架构使这个想法成为现实。基本思想非常简单:对于每张脸,我们训练一个编码器和一个相应的解码神经网络。编码时,使用第一人称的图片。解码时,它使用第二人称解码器。对于训练部分,尝试这道菜需要收集数百张每个人不同姿势的照片。想用吴秀波这样的明星来训练还是很容易的,毕竟网上有大量公开的图片和视频。图片不够用的时候,我们也可以从已有的视频中提取出来。神经网络经过训练并了解每个人的面部特征后,它可以预测该人尚未自行摆出的姿势。例如,训练生成JohnOliver。在这项技术出现之前,人们想要换脸只能靠手动PS。这会耗费大量的人力和时间,视频中换脸更是难上加难,每一帧都要换。但自从这款名为“Deepfake”的软件匿名发布并开源后,一切都变了。还有一款类似的换脸软件叫DeepFaceLab。Github上有个开源链接:https://github.com/iperov/DeepFaceLabDeepfake搅动江湖,技术是最后一道防线?2019年,一段美国众议院议长南希·佩洛西的深度造假对话视频出现在社交媒体上,该视频被特朗普总统分享,在脸书上的浏览量超过250万次。此前,奥巴马的脸被“借”来攻击特朗普,该视频在网站上也获得了480万的浏览量。特朗普本人也注定要失败。西雅图电视网曾播放一段Deepfake特朗普演讲视频。视频中,特朗普满脸通红,不时做出一些搞笑的表情。由于Deepfake技术可以用在包括总统在内的任何官员身上,美国两党都开始担心该技术会成为针对美国和其他西方国家的虚假信息战的最新武器。2019年6月13日,美国众议院情报委员会就人工智能Deepfake举行听证会,公开讨论Deepfake技术对国家、社会和个人的风险以及预防和对策。法律法规只能将正规企业的技术锁在笼子里,却难以杜绝个体行为。比如这次假冒的“俄罗斯反对派人士”忽悠了一批欧洲资深议员。截至目前,还没有人宣称对这起事件负责,也不知道幕后黑手是谁。能战胜魔法的或许就是魔法吧。Deepfake可以通过技术手段检测出来吗?答案是肯定的。在Deepfake开源后不久,FacebookCTOMikeSchroepfer在博客上宣布,该公司正与微软合作,联合麻省理工学院、牛津大学等大学的研究人员,通过组织“Deepfakes识别挑战赛”,探索如何通过数据集和基准测试。.检测Deepfake换脸视频。美国国防部也在研究一种称为取证的图像认证技术。他们的想法是寻找图片和视频中的不一致之处,例如不一致的照明、阴影和相机噪音。加州大学河滨分校的学者也提出了检测Deepfake假图像的新算法。同样,该算法的一个组成部分是各种“递归神经网络”,它们将有问题的图像分割成小块,然后逐个像素地查看这些块。神经网络经过训练可以检测数千张深度造假图像,它发现了一些伪造品的特殊性,直至单像素级别。清华大学人工智能研究院孵化出的RealAI团队也声称,由于Deepfake生成的假视频图像会有不自然的纹理,他们通过海量视频训练神经网络,让其学习正常情况下的纹理特征,然后这用于检测假视频中的不一致纹理。使用这项技术,可以逐帧检测假视频,准确率超过90%。然而,这次欧洲议员与假“俄罗斯反对派”人物的视频会议却是在Zoom上进行的。显然,Zoom还没有具备在线检测Deepfake的技术手段。【本文为栏目组织大数据文摘原创翻译,微信公众号“大数据文摘(id:BigDataDigest)”】点此查看作者更多好文
