当前位置: 首页 > 科技观察

《LookingatFaceRecognitionCriminals》论文发表在Nature?遭到1700名科学家反对

时间:2023-03-17 12:53:19 科技观察

1700名研究人员联合抵制《自然》杂志发表人工智能研究论文,这还是第一次。“我们敦促审查委员会公开撤销撤销论文接受的决定,并解释用于评估论文接受的标准。施普林格需要发表公开声明,谴责使用刑事司法统计数据来预测犯罪,并承认其过去在激励此类有害学术研究方面的作用。所有出版商今后都应避免发表此类研究。”在一封冗长的公开信中,数千名AI研究人员呼吁科学出版商SpringerNature不要发表论文。据报道,该研究提出了一种面部识别系统,可以预测一个人是否是罪犯。该论文由哈里斯堡科技大学提交。是什么研究引发了这样的争议?在这篇名为《A Deep Neural Network Model to Predict Criminality Using Image Processing》的论文中,研究人员表示该技术没有种族偏见,可以根据面部特征以80%的准确率预测照片中的人是否是罪犯。深度学习方法是为执法机构开发的。该论文的第一作者乔纳森·科恩(JonathanKorn)是一名博士。HarrisburgTech的候选人,是前纽约警察。该论文的合著者RoozbehSadeghian教授在投稿新闻中说:“我们知道,机器学习技术可以在与面部识别和情绪检测相关的各种任务上实现超人的表现。新的研究表明,这些工具可以从新方法的威力通过提取图像中高度预测犯罪的微小特征得到证明。”在原计划中,本文将被收录在《自然》研究系列《SpringerNature–ResearchBookSeries:TransactionsonComputationalScience&ComputationalIntelligence》中。“通过无偏见地自动识别潜在威胁,我们可以实现预防犯罪的目标,并为执法和军事应用提供不易受无形偏见和情绪因素影响的工具,”该论文的作者之一纳撒尼尔·阿什比(NathanielAshby)说。“我们的下一步是寻找合作伙伴来推进这一使命。”然而,事情并没有作者想象的那么顺利。消息发布后,“AI看脸预测犯罪”的研究迅速引发了不小的争议。在社交网络上,行业专家就效率、隐私和道德等原则达成一致,称该计划不负责任、牵强附会且“大错特错”,因为它可能导致人工智能判断某些人天生就是罪犯的奇怪后果.论文提交后哈里斯堡科技大学的新闻稿。5月,该消息因争议太大而被删除。自5月投稿消息曝光以来,这项研究一直受到科学界的关注和讨论。在最近的公开信中,来自哈佛大学、麻省理工学院、谷歌和微软的学者和人工智能专家都在这封公开信上签名。他们呼吁出版公司施普林格停止发表这篇论文:“我们是来自不同科技领域、学科和人文学科的研究人员和实践者,我们对即将发表的论文深表关注。”公开信的组织者之一奥黛丽·比尔德(AudreyBeard)在一封电子邮件声明中说:“开发一个没有种族偏见的犯罪预测系统根本不可能,因为刑事司法数据本身就存在种族偏见。”这不是人工智能研究人员第一次提出此类有问题的研究。根据人的外貌评估犯罪概率,让人想起2016年11月上海交通大学向预印本论文平台arXiv提交的论文《使用脸部图像自动推断罪犯》。研究人员声称通过对大量ID的训练照片中,神经网络模型在识别罪犯时的准确率为87%。当时,该研究还在学术界和舆论界引起了不小的讨论。昨晚,Nature做出澄清,HarrisburgUniversityofTechnology的文章将不会被《自然》杂志刊登:但仍有人质疑:“为什么这样的文章会进入Nature的审稿流程?”似乎要消除深度学习,要防止偏见成为“作恶”的工具,我们还有很多工作要做。公开信:https://medium.com/@CoalitionForCriticalTechnology/abolish-the-techtoprisonpipeline-9b5b14366b16