大数据文摘出品俄乌冲突尚未结束,网络上依然火药味十足。近日,乌克兰总统泽连斯基的一段“视频”广为流传,他在视频中呼吁乌克兰士兵放下武器。从视频来看,泽连斯基的脸看起来很不自然,《文摘》的普通读者应该能很快认出来。这显然又是一个用Deepfake制作的换头“视频”。该视频于周三由黑客发布在被黑的乌克兰新闻网站上,后来被揭穿并删除。不过,由于这段视频也在推特上广为流传,观看人数超过25万,泽连斯基本人也发推辟谣。乌克兰国防情报预测:俄罗斯干了在这段一分钟的假视频中,乌克兰总统沃洛德米尔·泽伦斯基似乎在告诉士兵们放下武器,放弃与俄罗斯作战。虽然目前还没有人声称对这起事件负责,但在乌克兰国防情报部门看来,俄罗斯的嫌疑最大。本月初,乌克兰国防情报局还专门在推特上科普一下什么是deepfake。在科普视频中,包括美国现任总统拜登在内的多国政要都以假冒的形象出现。乌克兰国防情报局在推特上写道:大家可能都听说过Deepfake技术,它结合了深度学习和欺骗,是一种基于人工智能合成人类图像的技术。俄罗斯联邦的挑衅正在准备中。这似乎预示着这次泽连斯基Deepfake的出现。不过,泽伦斯基的Deepfake视频似乎比较粗糙。虽然视频中的口型同步还过得去,但观众很快指出泽伦斯基的口音不对,仔细观察他的头部和声音是不真实的。随后,Facebook、YouTube和Twitter的官员表示,该视频已因违反政策从他们的平台上删除。作为第一个针对处于战争状态的国家元首的Deepfake视频,该视频预示着一种新的舆论战形式。“这是我们看到的第一个真正有效的案例,但我怀疑这只是冰山一角。”泽伦斯基后来在他的电报频道上发布的一段视频中回应了假视频,他说:“我们正在保卫我们的土地、我们的孩子和我们的家庭。所以我们不会放下武器。直到我们取得胜利。”deepfakes的作用不容小觑乌克兰国家电视台Ukraine24(乌克兰24日)证实,黑客设法通过直播电视发送了一条虚假的Zelensky信息。它曾短暂出现在电视台的网站上。该电台称,这是“敌方黑客”的作品。黑客在乌克兰广播了一条24小时的信息,敦促乌克兰人停止战斗并交出武器。大西洋理事会欧亚研究员罗曼·奥萨德丘克说:他们还声称泽连斯基逃离了基辅,这些信息在俄罗斯最大的社交媒体VKontakte上广为流传。研究人员表示,虽然deepfake不是特别复杂,但仍应被视为危险。Deepfake是一种利用AI深度学习,将图片中一个人的脸换成另一个人的图片的技术。通过这项技术,我们可以创建一个非常逼真的“假”视频或图片,“换脸”,因此研究人员使用自动编码器神经架构使这个想法成为现实。基本思想非常简单:对于每张脸,我们训练一组编码器和相应的解码神经网络。在编码的时候,我们使用一个人的第一张A图。解码时,它使用第二人称解码器。对于训练部分,需要收集每个人不同姿势的数百张图片。当图片不足时,也可以从已有的视频中提取。在神经网络训练学习了每个人的面部特征后,就可以预测出这个人还没有摆出的姿势。当Deepfake刚从娱乐圈走入政坛时,Deepfake更多的是一个玩具。用来恶作剧朋友或戏弄名人。后来,Deepfake逐渐开始“走向政治舞台”。2019年,一段美国众议院议长南希·佩洛西的深度造假对话视频出现在社交媒体上。这段视频是特朗普总统分享的。它在Facebook上的浏览??量已超过250万次。此前,奥巴马的脸被“借”来攻击特朗普,该视频在网站上也获得了480万的浏览量。特朗普本人为了逃避,西雅图电视网曾播放一段特朗普演讲的Deepfake视频。视频中,特朗普满脸通红,不时做出一些搞笑的表情。由于Deepfake技术可以用在包括总统在内的任何官员身上,美国两党开始担心这项技术会成为针对美国和其他西方国家的虚假信息战的最新武器。2019年6月13日,美国众议院情报委员会就人工智能Deepfake举行听证会,公开谈论Deepfake技术对国家、社会和个人风险的影响及防范与对策。去年,包括拉脱维亚议会外交事务委员会主席RihardsKols和来自爱沙尼亚和立陶宛的国会议员、英国外交事务特别委员会主席TomTugendhat在内的一群政客被一名deepfake黑客欺骗,他们收到了一些“俄罗斯反对”。他们还讨论了克里米亚问题等政治事务。原来,这些所谓的“俄罗斯反对派人物”都是别人用Deepfake换脸伪装出来的。只有魔法才能战胜魔法?虽然很多国家都出台了规范Deepfake相关技术的法规,但是对于这种发生在战争中的造假事件,显然没有法律来管控。即使将真假公之于众,也是伪造党的头等大事。如果人眼无法分辨,Deepfake能否通过技术手段检测出来?答案是肯定的,而且能战胜魔法的或许就是魔法。在Deepfake开源后不久,FacebookCTOMikeSchroepfer在博客上宣布,该公司正与微软合作,联合麻省理工学院、牛津大学等大学的研究人员,通过组织“Deepfakes识别挑战赛”,探索如何通过数据集和基准测试。.检测Deepfake换脸视频。美国国防部也在研究一种名为Forensic的图像认证技术。他们的想法是寻找图片和视频中的不一致之处,例如不一致的照明、阴影和相机噪音。加州大学河滨分校的学者也提出了检测Deepfake假图像的新算法。同样,该算法的一个组成部分是各种“递归神经网络”,它们将有问题的图像分割成小块,然后逐个像素地查看这些块。神经网络经过训练可以检测数千张深度造假图像,它发现了一些伪造品的特殊性,直至单像素级别。清华大学人工智能研究院孵化出的RealAI团队也声称,由于Deepfake生成的假视频图像会有不自然的纹理,他们通过海量视频训练神经网络,让其学习正常情况下的纹理特征,然后这用于检测假视频中的不一致纹理。使用这项技术,可以逐帧检测假视频,准确率超过90%。
