当前位置: 首页 > 科技观察

人脸识别“火爆”中的冷思考:值得深思的道德伦理问题

时间:2023-03-16 02:13:14 科技观察

科技日报11月27日报道,人脸识别系统给我们的城市带来了诸多便利。然而,许多国家对面部识别的抵制情绪也在增长。研究人员、公民自由倡导者和法律学者都对面部识别技术的兴起感到困扰。他们正在跟踪它的使用情况,揭露它的危害,并发起运动以寻求保障措施,甚至彻底禁止该技术。然而,科技发展的趋势浩浩荡荡,更多人认为这项技术的存在是“不可避免的”,但其背后的道德伦理问题更值得我们深思。近日,《自然》杂志的一系列报道探讨了人脸识别系统背后的道德伦理。一些科学家正在分析面部识别技术固有的不准确性和偏见,警告其背后的歧视,并呼吁加强对该技术的监管和透明度。《自然》杂志对面部识别、人工智能和计算机科学领域的480名研究人员进行的调查显示,人们对面部识别研究的伦理问题普遍存在担忧,但也存在分歧。有些未经同意获取数据为了使人脸识别算法正常工作,它们必须在大型图像数据集上进行训练和测试,理想情况下必须在不同光照条件下从不同角度多次捕获这些图像。过去,科学家们招募志愿者一般只是为了收集各种角度的照片;但是现在,大多数人都是未经许可收集的面部图像。在♂杂志的480名受访者中,当被问及他们如何看待应用面部识别方法从外表识别或预测个人特征(如性别、年龄或种族)的研究时,约三分之二的人表示此类研究只能与人们说,面部识别器的知情同意,或在与可能受影响的群体的代表讨论后。大多数人同意,使用面部识别软件的研究应事先获得伦理审查机构(例如机构审查委员会)的批准。他们对在学校、工作场所或公共场所被私营公司监控时使用面部识别进行实时监控感到最不自在,但他们通常支持警方在刑事调查中使用面部识别系统。从法律上讲,尚不清楚欧洲的科学家是否可以在未经人们同意的情况下收集个人面部照片用于生物识别研究。欧盟的通用数据保护条例并未为研究人员提供明显的法律依据。在美国,一些州表示,商业公司未经个人同意使用个人生物识别数据是违法的。受访者强烈认为应该有额外的法规来规范公共机构对面部识别技术的使用。超过40%的人希望禁止实时大规模监控。性别和种族偏见面部识别系统通常是专有且保密的,但专家表示,大多数系统都涉及一个多阶段过程,该过程使用深度学习在大量数据上训练大规模神经网络。美国国家标准与技术研究院(NIST)在去年底发布的一份报告中表示,人脸识别的准确率得到了显着提升,深度神经网络在识别图像方面效果显着。但NIST还证实,大多数人脸识别对于白人男性面孔比对有色人种或女性面孔更准确。特别是,在NIST数据库中被归类为非裔美国人或亚洲人的面孔被错误识别的可能性是那些被归类为白种人的人的10-100倍。女性比男性更容易产生误报。领导NIST图像小组的电气工程师CraigWatson认为,这种不准确可能反映了每家公司培训数据库构成的不平衡,一些公司可能已经开始解决这个问题。有待严格的立法和监管从事面部识别或分析技术的研究人员指出,面部识别有很多用途,例如寻找走失的儿童、追踪罪犯、更容易使用智能手机和自动取款机,以及通过识别机器人来识别它们。和情感来帮助机器人与人类互动,并且在一些医学研究中,帮助诊断或远程跟随同意的参与者。人脸识别技术有好处,但需要根据风险评估这些好处,这就是为什么需要对其进行适当和谨慎的监管。许多研究人员以及谷歌、亚马逊、IBM和微软等公司都在呼吁对面部识别系统实施更严格的监管。马萨诸塞州波士顿东北大学研究面部监控的计算机科学家、将面部识别技术视为“历史上最危险的发明”的法学教授伍德罗·哈佐格表示,如果美国立法者允许企业使用面部识别,他们应该制定规则,禁止从健身房到餐馆收集和存储“面部指纹”,并禁止将面部识别技术与预测性警务、广告定位和就业等自动化决策结合使用。需要仔细研究和思考“在我们的社会中,我们需要面部和生物特征识别的大量合法应用,”东兰辛密歇根州立大学的计算机科学家AnilJain说。但一些科学家表示,研究人员还必须认识到,在人们不知情的情况下远程识别或分类人脸的技术从根本上来说是危险的,应该努力抵制使用它们来控制人。神经信息处理系统是人工智能领域最重要的会议之一,今年是第一个要求进行此类伦理考虑的会议。提交面部识别论文的科学家必须添加一份声明,解释他们工作的伦理问题和影响。潜在的负面后果。此外,《自然机器智能》期刊还试图要求一些机器学习论文的作者在文章中加入声明,考虑到更广泛的社会影响和伦理问题。纽约伊萨卡康奈尔大学研究技术伦理的社会学家KarenLevy说,从事面部识别研究的学者对伦理问题的认识“感觉像是科学界的真正觉醒”。