当前位置: 首页 > 科技观察

DeepFake真假难辨,TomCruz更像他自己!

时间:2023-03-12 08:26:18 科技观察

在全球最受欢迎的社交媒体平台之一抖音上,源源不断的deepfake视频层出不穷。视频以数字方式改变对象的面部或身体,将用户完全变成另一个人。当然,每个人通常都会换一张明星的脸。比如这个抖音上的@deeptomcriuse,已经发布了几十个汤姆克鲁斯的deepfake视频,拥有360百万粉丝。好家伙,这相似度简直让阿汤哥本人看了都惊呆了。在另一个deepfake视频中,冒牌的扎克伯格承认了窃取用户大数据的野心。“想象一下:当一个人掌握了数十亿人的数据时,他就控制了他们的生活和他们的未来……幽灵让我知道,谁控制了数据,谁就控制了未来。”记住,上面的话不是小扎说的。仔细看原版和翻拍视频,确实真假难辨……在这段恶搞视频中,基努里维斯刚刚阻止了一场持械抢劫。?而这个马斯克中国分公司,连马斯克本人都骗过了。错的不是技术,而是人。虽然大多数时候,Deepfake都是被网友拿来调侃的,但令人担忧的是,越来越多的人利用这项技术进行虚假宣传、诈骗、抹黑公众人物。Deepfakes是文本、图像和镜头处理的完美结合。与绿屏和计算机生成的图像相比,它提供了一种更便宜、更精致的视觉插入技术。本来,这项技术诞生之初,就寄托了创造者美好的愿望,比如帮助人们哀悼、缅怀逝去的亲人。然而,邪恶的不是技术,而是人性。很多时候,deepfakes被用来制造假新闻、抹黑名人,甚至伪造色情内容。美国大选期间,AI换脸技术成为政客互相攻击的工具。特朗普曾在推特上转发过一段拜登吐舌头的假视频,一晚上浏览量就破千万。大多数人不会相信如此明显的恶搞。但是那些看起来似是而非的视频呢?2019年,英国保守党涉嫌在大选期间伪造工党议员基尔·斯塔默接受电视采访的视频。而DeepNude2.0(现已解散)被用来让穿着衣服的女性在镜头前显得裸体,通常是为了报复和勒索。此外,Deepfake还经常被用来进行欺诈。当一个信任的朋友或亲戚打视频电话向你借钱时,你很可能会中招。一项研究发现,2020年,使用数字技术进行的欺诈使美国金融机构损失了200亿美元。Deepfake容易,立法难。DeepFake的创作者强调,要让这些换脸视频看起来更真实,需要花费大量的时间和精力。不过,DeepFake确实越来越容易了。随着越来越多的DeepFake应用程序被开发出来,未来即使是技术水平较低的人也可以越来越容易地制作出看起来逼真的DeepFake视频。想想这十年来ps的蓬勃发展,你大概可以预见到DeepFake未来的发展。立法、监管和检测软件都在努力跟上深度造假的热潮。2019年,Facebook因未能删除政治家南希·佩洛西(NancyPelosi)的合成视频而受到批评,因为它不符合其对深度造假的定义。2020年,Twitter和TikTok禁止分享可能欺骗、混淆或伤害他人的合成视频(除非它们被明确标记为DeepFake)。并且YouTube已经删除了所有与2020年美国联邦大选有关的DeepFake视频。然而,即使这些政策有引导作用,平台管理者也很难及时处理每一个被举报的视频。在澳大利亚,总部位于新南威尔士州的Ashurst的律师表示,现有的版权和相关法律可能无法保护澳大利亚人免受Deepfakes的侵害。虽然国外已经开始尝试制定法律来规范这一领域,但这些法律大多侧重于政治交流。例如,加利福尼亚州规定在选举期间发布或分发经过数字处理的候选人内容是非法的。但是不从政的人不受这项法律的保护。而最好的补救措施之一就是让用户尽可能学会辨别。我们可以做什么?通常,deepfake暴露自己的第一个迹象是某些事情似乎不对劲。如果是这样,请仔细观察被摄者的脸并问问自己:脸是否太光滑,或有不寻常的颧骨阴影?眼睑和嘴巴的运动是否显得起伏不定或不自然?头发看起来像真的吗?请注意,目前的deepfake技术很难保持头发的原始外观,尤其是面部毛发。您可以在网络上搜索有关该视频或其中人物的关键字,因为许多可疑的deepfake视频已被揭穿。尝试判断消息来源的可靠性——看起来是真的吗?如果视频发布在社交媒体平台上,发布者的账户是否经过验证?您也可以将正在播放的视频截图,并进行谷歌反向图片搜索,查看是否存在该视频的原始版本,并与可疑版本进行比较。最后,如果您确实发现了DeepFake视频,请务必举报。