当前位置: 首页 > 科技观察

2020年:“深度造假”和“深度欺骗”元年

时间:2023-03-17 13:08:54 科技观察

在过去的一年里,deepfake这种可用于生成逼真、虚假或人工操纵的音视频的机器学习模型逐渐见诸报端并成为媒体争相报道,成为新兴的网络安全威胁。大众最初是通过娱乐视频接触到deepfakes的,这些视频可以用deepfake工具生成,将明星的脸叠加在色情视频上。尽管视频质量低劣且明显违法,但这项新技术有可能帮助人们区分虚拟和真实。在政界,尤其值得注意的是,deepfakes可以成为对抗政客或政党的武器,操纵公众舆论来影响选举甚至股市。几年前,deepfake技术研发受限,只有资源丰富、技术先进的国家使用,但现在deepfakes工具免费、普及、简单易学,所以只要能上网,时间和目的可以随时制作deepfake视频,并在社交媒体上传播虚假内容视频。此外,deepfake工具变得越来越智能,生成视频所需的素材也越来越少。在早期,机器分析和生成需要数小时的视频和音频或大型数据集。这意味着关注度高的人,如政治家、名人、知名CEO或拥有大量网络资源的人,很容易成为目标,成为虚假视频的主角。现在,只需要一张照片就可以生成这些假视频。未来制作假视频只会变得更容易,例如Facebook上的个人资料图片或Instagram上的音频剪辑,因此每个人都应该提高警惕,以防止自己成为下一个目标。虚假现实Deepfake之所以强大,是因为它颠覆了人类对现实的基本理解:眼见为实。Deepfakes除了能够唤起情绪反应外,还使真相与现实脱节。比如你看到不愉快的东西,即使后来知道是假的,你还是会有负面情绪,把你看到的和感觉到的和你的潜意识联系起来。去年10月,州长GavinNewsom签署了加州的AB730法案(被称为“反Deepfake法案”),希望在2020年大选之前减少恶意deepfake虚假视频的传播。虽然此举值得称赞,但该法案本身却毫无进展。它人为设置了一个时间线,只适用于选举后60天内具有“真正恶意”原则的deepfake虚假视频,从而免除了传播平台监控和删除deepfake虚假视频的责任。相反,法律依靠虚假视频制作者的自我承认和所有权声明,为“真正的恶意”寻找证据的过程并不那么清晰。制定法律的初衷并不是为了强制执行,更可能是立法者表明他们已经迈出了第一步,表明他们知道deepfakes是对民主的严重威胁。而战斗才刚刚开始。理想情况下,该法律将影响和指导联邦政府和其他州的工作,作为更有效和可执行立法的初始模板。Deepfake技术将成为2020年的商业威胁到目前为止,与Deepfake相关的讨论主要集中在虚假宣传活动和通过社交媒体推动的大规模人为操纵的潜在影响上,尤其是在政治领域。2020年将是Deepfakes成为企业真正威胁的一年,而企业的网络防御团队还没有能力应对这些威胁。鱼叉式网络钓鱼攻击以高级员工为目标,通常是通过诱使他们手动完成任务,例如支付伪造的发票、发送实物文件或手动设置网络犯罪分子的登录凭据。从技术角度来看,这些电子邮件通常更难检测,因为电子邮件不包含任何可疑链接或附件,并且通常与BEC攻击结合使用(当黑客获得对员工电子邮件的控制权时,他们可以从合法地址电子邮件)。据FBI称,在过去三年中,BEC攻击使全球组织损失了超过260亿美元。而deepfakes可以加剧这些攻击,例如使用语音邮件冒充高级管理人员来欺骗员工,这使得网络犯罪更加容易。有一种观点认为攻击打破了真相的障碍,与其认为攻击请求是错误的,不如接受它并相信它是真实的,直接揭露它更有意义。然而,随着deepfake技术的进一步发展,真假攻击变得难以区分。例如,员工与他们认为是CEO的人进行视频通话,屏幕背后的犯罪分子实时生成deepfake视频。去年早些时候,一位CEO被AI生成的声音欺骗,将243,000美元转入他认为是公司供应商的银行账户。目前,安全行业没有任何设备、电子邮件筛选或任何技术来抵御deepfake技术。但是,并非没有。例如,Facebook、微软和大学研究人员发起了Deepfake检测挑战赛,呼吁推动开源deepfake检测工具的发展。美国国防高级研究计划局(DARPA)宣布了语义取证或“SemaFor计划”,旨在开发“语义取证”作为过去使用的统计检测技术的替代防御方法。目前唯一的防御措施是让用户了解这些新的攻击方法,并对任何看似异常的行为或活动保持警惕。信任不再是我们负担得起的奢侈品。