Deepfake(Deepfake)不仅是社会工程钓鱼攻击和BEC商务邮件攻击的下一个“热点”,而且对商务等安全技术构成威胁欺诈检测和生物识别身份验证。这是一个严重的威胁,是未来“毫秒级”数字化现代战争的一大隐患。对抗“深度伪造”的最好方法是“深度检测”,利用人工智能检测恶意人工智能。近日,陆军研究人员宣布开发出一种深度伪造检测方法,可以开发先进的军事技术,帮助士兵快速检测和识别深度伪造相关威胁。这项研究工作的目标是开发轻量级、低训练成本、高性能的面部生物特征识别技术,以满足士兵在战斗中对尺寸、重量和力量的要求。美国陆军作战能力发展司令部(DEVCOM)、陆军研究实验室(ARL)和南加州大学教授c-cJayKuo的研究团队着手解决深度造假对社会和国家安全构成的重大威胁。研究的结果是一种名为DefakeHop的创新技术解决方案。DepthDetection:DetectingDeepfakewithDefakeHopARL研究人员SuyaYou博士和Shuowen(Sean)Hu博士指出,deepfakes是人工智能合成的、伪造某人言行的超现实视频内容。大多数最新的deepfake视频检测和媒体取证方法都是基于深度学习的,在鲁棒性、可扩展性和可移植性方面存在许多先天的弱点。“由于生成神经网络的发展,人工智能驱动的深度造假技术发展如此迅速,以至于缺乏可靠的检测和防御技术,”尤博士说。“我们迫切需要找到新的方法来了解deepfakes的惊人表现。”机制,并在坚实的理论支持下开发有效的防御解决方案。”通过将团队成员的经验与机器学习、信号分析和计算机视觉相结合,研究人员开发了一个创新的理论和数学框架——连续子空间学习(ContinuousSubspaceLearning,SSL),一种创新的神经网络架构。研究人员指出,SSL是DefakeHop的一项关键创新。“SSL是从信号变换理论发展而来的一种全新的神经网络架构数学框架,”Kuo指出,“它与传统方法完全不同,提供了一种全新的方法。”涉及多个变换矩阵的信号表示和处理。它非常适合具有短程、中程和长程协方差结构的高维数据。SSL在其设计中结合了此功能。它是一个完整的数据驱动的无监督框架,为图像处理和理解任务(如面部生物特征识别)提供了新工具。”您指出,目前最新的deepfake视频检测和媒体取证技术大多基于深度学习机制,DefakeHop明显领先于业界先进水平,具体表现在以下四点:DefakeHop基于全新的SSL信号表示和转换理论。它在数学上是透明的,其内部模块和处理都是可解释的。DefakeHop是一种弱监督方法,它提供了一种通过学习机制(无反向传播),节省了(数据)注释的成本,并且大大降低了训练的复杂度,生成模型的尺寸和参数都小很多,复杂度远低于最新技术,可以有效地在战术边缘设备和平台上实现。强大的对抗性攻击能力。深度学习基于的方法容易受到对抗性攻击。这项研究提供了稳健的空间光谱表示净化对抗性输入,因此可以有效地防御对抗性扰动。尤教授指出:这项研究通过介绍和研究一种创新的机器学习理论及其应用于智能感知、表示和处理的计算算法,为美国陆军和实验室的人工智能和机器学习研究工作提供了支持。我们希望未来的士兵能够在战场上携带智能、轻便的视觉设备。当今的机器学习解决方案对特定数据环境过于敏感。当在不同的设置中获取数据时,需要重新训练网络,这在嵌入式系统中很难做到。目前开发的解决方案具有许多理想的特性,包括模型尺寸小、需要的训练数据少、训练复杂度低以及可以处理低分辨率输入图像。这是一个改变游戏规则(现代战争)的解决方案,有望得到广泛使用在未来的军队中。解决了几个面部生物识别问题研究人员成功地应用SSL原理解决了多个面部生物识别问题和一般场景理解问题。结合DefakeHop的工作,他们开发了一种基于SSL原理的新方法FaceFop,以解决具有挑战性的环境中图像质量低和分辨率低的问题。识别和人脸分类问题。据悉,该团队将继续开发针对面部生物特征识别和通用场景理解的创新解决方案,如物体检测、识别和语义场景理解。胡教授说:“我们都看到了人工智能对社会的重大影响,无论是好的还是黑暗的,但不可否认的是,人工智能正在改变很多事情。”“Deepfakes是一个反面例子。在过去的十年里,娱乐业向我们展示了计算机可以生成高度复杂的视觉效果是假的,现在人工智能和机器学习的最新技术大大降低了内容伪造的技术门槛,相关工具也非常容易获得。”最后,研究团队认为,深度伪造技术对军事和日常生活有影响(威胁),在打击深度伪造的研究领域,DefakeHop解决方案比现有技术具有显着优势,提供人工智能、计算机视觉、理解、人脸生物识别等人工智能领域的研究提供了全新的范式和知识。id:gooann-sectv)转载】点此查看该作者更多好文
