当前位置: 首页 > 科技观察

DeepfakesDeepfakes正在打开网络安全的“潘多拉魔盒”

时间:2023-03-13 19:21:36 科技观察

2017年,当一位名叫“Deepfakes”的用户第一次在网上发布合成视频时,他可能没有想到自己打开了“潘多拉魔盒”。随着DeepFake技术在缺乏监管的情况下野蛮生长,逐渐成为危害经济社会稳定的存在。无数事实时刻提醒着我们:眼见为实!互联网上的图像和视频不能再被视为理所当然。Deepfakes技术发展大事记2014:Deepfakes技术诞生2014年,“GAN之父”IanGoodfellow和他的同事发表了第一篇介绍生成对抗网络(GAN)的科学论文,这是我们今天深入讨论的deepfakes的技术基础。2015年:GAN变得更好研究人员开始将GAN与针对图像识别优化的多层卷积神经网络(CNN)相结合。CNN能够并行处理大量数据,并且在显卡上运行效率特别高。这种组合取代了过去更简单的GAN代理驱动网络,也将生成结果的可信度提升到了一个新的水平。2017年:第一个deepfakes视频诞生。生成器代理通常生成低分辨率图像,因为图像越清晰,越容易检测到问题。只有这样,检验机构就很难检测出内容的真伪。Nvidia分阶段训练网络:首先,假AI学习创建低分辨率图像,然后逐渐提高分辨率,从而推动Deepfakes模拟能力发生质的飞跃。从那时起,Deepfakes一词已成为AI生成的图像和视频的代名词。2018年:Deepfakes登陆YouTube频道此后,Nvidia研究人员进一步改进了GAN的控制,他们可以针对单个图像特征(例如肖像中的“黑发”和“微笑”)进行调整。通过这种方式,可以将训练图像的特征有针对性地转移到人工智能生成的图像中。同时,正式推出了第一个专门介绍Deepfakes的YouTube频道,包括各种类型的视频。【网络传输可用于控制图像AI,比如只创建微笑人像】2019:Deepfakes成为主流无论技术进步如何,2019年都是deepfakes正式成为主流的一年。互联网上Deepfakes的数量正在快速增加,Deepfakes的技术发展速度已经超出预期。技术专家郝力甚至大胆预测,Deepfakes很快就会趋于完美。2020年:提议对Deepfakes进行监管Facebook在2020年美国大选开始时宣布,它将在其平台上禁止Deepfakes——讽刺或模仿性Deepfakes除外;YouTube采用类似的准则;Twitter开始执行其2019年发布的TheDeepfakes管理指南;当年8月,TikTok也开始禁止在其视频平台上非法使用Deepfakes技术。今年,Jigsaw正式发布了一款AI驱动的检测工具Assembler,可以帮助管理者检测Deepfakes图像。高通投资了一家初创公司,可以将原始照片和视频不可撤销地标记为“原创”,从而降低后续Deepfakes识别的难度。现阶段,Deepfakes技术本身还在继续发展,微软已经正式推出了FaceShifter,可以将模糊的原始图像处理成可信的假图片。娱乐巨头迪士尼也开始在电影制作中广泛应用Deepfakes技术,并推出了百万像素级的Deepfakes视频制作工具。所有这些都为可能使用Deepfakes的犯罪活动创造了条件。今年6月,美国联邦调查局发布公告,提醒公众警惕利用Deepfakes技术在远程求职面试中冒充他人。这些职位大多与信息技术、系统开发、数据库和软件管理有关。如果这些诈骗者得逞,他们将能够访问目标企业的敏感数据,包括客户PII(个人身份信息)、财务数据、公司IT数据库和/或专有信息。Deepfakes的威胁正在增加。经过多年的发展,目前的deepfakes技术已经从“一目了然”变成了“实时换脸”,门槛极低。你只需要通过一个软件和几张图片。一键生成。而一系列网络安全事件也充分表明,Deepfakes引发的信任和安全危机可能才刚刚开始。根据VMware最新的《年度全球事件响应威胁报告》报告,去年,使用面部和语音替换技术的网络攻击数量增加了13%。其中,电子邮件是Deepfakes攻击的主要传递工具,占攻击总数的78%,这与企业电子邮件妥协(BEC)尝试的持续增加有关。此外,在接受研究人员调查的网络安全专业人士中,有66%表示他们在过去一年中至少见过一次此类事件。事实再次证明,利用Deepfakes技术进行网络攻击,已经从理论上的威胁演变为实实在在的危害。早在2019年,美国国土安全部就质疑Deepfakes技术的应用安全性,称“利用该技术骚扰或损害他人利益的现象应引起公众关注”。然而,从deepfakes中识别假视频的技术还不成熟。根据威胁情报公司Sensity发布的一份新研究报告,Deepfakes检测算法和软件有86%的机会将Deepfakes伪造的视频识别为“真实”。2022年3月,卡内基梅隆大学的一项研究指出,对比市面上各种Deepfakes技术检测产品的算法和硬件基础,发现准确率在30%到90%之间波动。更重要的是,随着Deepfakes技术的飞速发展,或许未来最精密的Deepfakes检测算法也无法准确识别真伪。这意味着deepfakes技术最终将改变游戏规则——无论是社交还是娱乐。Deepfakes专家郝力认为,这种发展趋势是完全有可能的,因为图像的本质无非是像素辅以适当的颜色,AI找到完美的副本只是时间问题。此外,短视频的盛行,以及Reface或Impressions等应用程序的流行,使得虚假图片和视频变得司空见惯。过去,人们坚信“耳闻为实,眼见为实”,但现在,正如GAN之父伊恩·古德费罗所说,“AI可能正在关上我们这一代人观察世界的大门。”主动防御Deepfakes应用风险虽然Deepfakes技术在应用时所呈现的威胁看起来很严重,但是,我们并非完全束手无策。FBI在此前的公告中指出,虽然部分Deepfakes视频极其逼真,但并非完美无缺。通过一些异常的眨眼、异常的光线、不协调的声音以及咳嗽、打喷嚏等动作的细节,可以鉴别视频的真伪。在时长超过10s的视频画面中不难发现这些破绽。同时,企业组织也可以采取多种措施对其进行防御,包括培训教育、先进技术、威胁情报等,以在一定程度上抑制恶意Deepfakes活动:首先,教育和对员工进行有关Deepfakes社会工程攻击的培训(尤其是最有针对性的攻击的知识)是降低风险的重要因素,必须关注财务部门的相关员工并定期提醒他们注意这种可能性;其次,在技术方面,建议企业组织部署更多的分析系统,及时发现异常的假冒行为。Deepfakes欺诈活动通常需要时间来设置和执行,这让潜在受害者有足够的时间发现警告信号并采取行动;此外,企业还可以通过随机分配用户指令来实施有效防御。因为deepfakes的创造者无法预测数以千计的可能请求。虽然犯罪分子可以实时操纵deepfake,但视频质量会大幅下降,因为deepfake技术所需的处理能力使其无法快速做出反应。在这种情况下,重复错误回复的用户可以被标记以供进一步调查。