当前位置: 首页 > 科技观察

黑客利用AI换脸技术求职人工智能安全问题不容忽视_1

时间:2023-03-21 11:58:15 科技观察

美国疫情过后,不少企业纷纷采用“在家办公”(WorkFromHome,WFH)模式。美国联邦调查局刑事投诉中心表示,他们近期接到多家企业雇主的投诉,称求职者在招聘过程中盗用他人身份,使用Deepfake技术参与远程面试。这些职位涉及信息技术、计算机程序、数据库和软件相关领域。一些求职者试图利用他人的背景和专业知识来获得工作,并通过Deepfake技术伪造视频。他们发现,在对求职者进行在线面试时,求职者的动作或嘴唇的开合与说话的声音不相符。比如打喷嚏或者咳嗽的时候,画面不同步。他们在对这些求职者进行背景调查时发现,有些求职者实际上是在利用他人的身份求职。如果找工作只是个小问题,但如果是黑客,一旦成功签订合同,就可以顺利进入公司,获取机密数据。你是不是也很好奇,这个软件真的好用吗?答案是,确实很先进。Deepfake利用了生成对抗网络(GAN)强大的图像生成能力,可以在源图像和视频上组合叠加任何已有的图像和视频,并且可以记录人脸的细节。经过多年的发展,Deepfake技术已经可以做到实时换脸,毫无违和感。然而,Deepfakes一直在努力对从不眨眼、眨眼过于频繁或不自然的视频中高度自信地制作面部动态动画。此外,音频和虚拟图像将不够自然地匹配。所以,如果这种视频持续10秒,就会让人起疑心,整个面试的时间也会更长,也更容易露出破绽。科技的进步和变革是一把双刃剑。人工智能技术虽然为我们提供了巨大的便利,但也可能带来安全、伦理、隐私等一系列问题。人工智能发展的本质是通过算法、计算能力和数据来解决完全信息化和结构化环境中的确定性问题。在这个以数据为支撑的时代,人工智能面临着诸多安全风险。首先,它可能面临中毒攻击。即黑客注入恶意数据,降低AI系统的可靠性和准确性,从而导致人工智能的错误决策。在训练数据中加入虚假数据、恶意样本等,会破坏数据的完整性,导致训练后的算法模型决策出现偏差。这种操作如果用在自动驾驶领域,很可能导致车辆违反交通规则,甚至引发交通事故。其次,会存在数据泄露的问题。反向攻击会导致算法模型内部的数据泄露。现在智能手环、智能音箱、生物特征识别系统、智能医疗系统等各种智能设备被广泛应用,个人信息采集全面收集。包括人脸、指纹、声纹、虹膜、心跳、基因等,这些信息是独一无二的、不可篡改的,如果泄露或被滥用,将带来严重的后果。例如,有消息称,国内多家门店在未经用户同意的情况下,大量采集人脸照片。这些人脸照片或多或少被黑业泄露过,会存在造假或资金安全等问题。的风险。再次,会存在网络风险。人工智能必然会引入网络连接,人工智能技术本身也可以提高网络攻击的智能化水平,进而进行智能数据窃取和数据勒索攻击或自动生成大量虚假威胁情报来攻击分析系统。主要的攻击方式包括:旁路攻击、推理攻击、后门攻击、模型提取攻击、属性推理攻击、木马攻击、模型反转攻击、反水印攻击、重编程攻击等。我们必须清醒地认识到,人工智能时代的数据安全也面临着诸多新的挑战。保护数据安全和算法安全成为企业的当务之急。