在Deepfake的世界里,有时真假难辨。人工智能算法“Deepfake”可以生成人物的各种逼真图像和视频,在换脸领域得到了广泛应用。然而,AI换脸技术引发的争议仍在继续,比如利用Deepfake制作成人视频,给人们带来了极大的困扰。近日,据外媒pcmag报道,美国联邦调查局表示,诈骗者一直在使用Deepfake技术在远程求职面试中冒充求职者,试图从IT公司获得工作机会,以访问其客户或财务数据、企业IT数据库和/或专有信息。一些公司透露,一些申请人拥有属于另一个人的个人身份信息。换脸前后角色的脸。资料来源:Facebook/Meta事情是这样的。当地时间6月28日,美国联邦调查局网络犯罪投诉中心(IC3)在一次公开咨询中表示,最近有关被冒充求职者的投诉数量有所增加。诈骗者一直在使用深度伪造技术和从受害者那里窃取的个人身份信息来诱骗雇主雇用他们远程或在家工作。这些工作涉及IT和计算机编程、数据库和软件相关职位。资料来源:https://www.ic3.gov/Media/Y2022/PSA220628过去,Deepfake使用AI驱动的程序来创建逼真的假角色。在视频方面,这项技术可以将名人的脸复制到别人的身上;在音频方面,它可以克隆一个人的声音并操纵它说出你想说的任何话。然而,这一次,FBI的咨询显示,Deepfake技术也在助长身份盗用。诈骗者在与潜在申请人进行在线面试时使用语音欺骗或语音伪造。骗子一直在使用这些deepfake技术申请IT公司的远程或在家工作职位。虽然FBI没有明确说明诈骗者的最终目标是什么,但它指出,所涉及的职位包括访问客户PII(个人身份信息)、财务数据、公司IT数据库和/或专有信息。此类信息可以帮助诈骗者从公司窃取有价值的信息并实施其他身份欺诈计划。资料来源:https://www.bangkokpost.com/不过,好消息是雇主有办法检测Deepfake。虽然诈骗者一直在对潜在雇主进行视频采访,但FBI指出,当诈骗者说话时,基于人工智能的技术仍然存在缺陷。例如,受访者在镜头前的动作和嘴唇动作与他们说话的声音不太相符。有时,咳嗽、打喷嚏或其他听觉行为与视觉呈现的不一致。
