对人工智能监控系统的担忧促使研究人员开发了一种工具来瞄准它们。近日,多伦多大学教授ParhamAbila和研究生AvisekBose发明了一种算法,可以将人脸识别率降低到0.5%。有了这种“反人脸识别”技术,我们是否可以决定自己的脸是否会被识别?反人脸识别并不陌生。其实这种反人脸识别技术早在几年前就已经出现了。2016年11月,卡内基梅隆大学的研究人员研发出反面部识别眼镜。该团队表示,这款0.22美元的特殊眼镜可以打印在光面相纸上,可以让镜头前的人看起来像是另一个人,在商业级面部识别软件的测试中成功地错误识别了面部。率达到100%。2017年,麻省理工学院和日本九州大学的研究人员创建了一种名为EOT(ExpectationOverTransformation)的算法,成功诱骗谷歌AI系统将海龟的3D打印照片标记为步枪,并将其变成了枪。3D棒球被误认为是浓缩咖啡,而可爱的猫咪有时会被误认为是鳄梨酱。一些研究人员担心,AI对3D物体的错误识别以及旨在欺骗机器视觉系统的对抗性图像技术的突破正在对人脸识别系统提出新一轮的挑战。将上述实验中的乌龟误认为步枪是对抗性图像的一个例子,与多伦多大学教授ParhamAbila使用的方法相同。对抗训练技术很受欢迎。LemAbila在最近出版的《基于约束最优化的神经网络的反面部识别系统》中介绍过。他们在600多张人脸的行业标准库中进行系统训练。用于测试的600张人脸包括不同的种族、不同的光照条件和不同的环境。文章的第一作者AvisekBoss在接受媒体采访时也表示,测试的关键是训练两个神经网络相互对抗,一个创建一个越来越强大的人脸检测系统,而另一个创建一个更强大的人脸检测系统。功能强大的工具。扰乱人脸检测。现代面部识别软件在很大程度上依赖于深度神经网络——一种从大量信息中学习模式的人工智能技术。在呈现数百万张面孔后,该软件可以学习面孔的概念以及如何区分不同的面孔。“这种反人脸识别系统其实就是通过生成对抗网络形成最小最优变化,从而攻击人脸识别的深度网络。数据堂拥有海量的人脸识别数据,并标注了情感标签。它可以满足消费场景中消费者情绪识别和意图预测的需求,上面提到的一些反人脸识别系统的实际应用还没有准备好,训练过程需要识别人脸的网络是开放的,攻击次数是无限的,但在实践中,这显然很难实现。在实际环境中,面部识别系统是一个隐蔽系统,不会允许这种重复攻击。“反人脸识别技术的诞生,本质上是对隐私的关注。”目前,人工智能产业还处于起步阶段,技术的发展有两个方面。如何防止人们利用AI技术进行破坏性行为,是整个行业需要思考的问题。数据堂自主研发的系列数据集产品,为“人脸识别”技术路径的实现提供了有力支撑。2000张人脸遮挡和多姿态人脸识别数据的数据集,对每个采集的人单独采集10种遮挡条件(含非遮挡条件)*4种光线*5种人脸姿势,共计的10*4*5=200(条)人脸数据,这组数据可以应用于遮挡人脸检测和识别等计算机视觉任务。这不仅需要立法层面的支持,还需要伦理讨论。同时,要对人工智能人才进行道德伦理教育。在立法的同时,通过行业自律规避隐私泄露的风险。
