本文转载自雷锋网。如需转载,请到雷锋网官网申请授权。最近在互联网上有一种强烈的凡尔赛文学感,例如。太烦人了,一觉睡过去,误了去马尔代夫的航班,只好坐专机去了。看似平淡的话语中,却有着夸张的炫耀,这就是凡尔赛文学。凡尔赛文学等网络热词年年出现,但你真的了解它们的含义吗?我们先来做个小测试!下面三句话,请判断哪一句是讽刺、抱怨和凡尔赛文学?这个社会,不管你背多少罪,都不要背。因为现在不叫虚伪,叫高情商。你很难变丑。你早上跑出去吓人,晚上跑出去吓鬼。iphone11promax真的一点都不好用,我的卡死了,还是512g暗夜绿!其实就是这样,大家应该买1024g的。如果你答对了,也不要骄傲,因为这道题甚至有可能可以AI。近日,中国北京信息工程研究所与中国科学院联合推出的一款AI模型,对“讽刺”的准确率为86%。而且,这项研究的成果还登上了计算语言协会(ACL)。听到这里你可能会好奇,为什么AI会识别“讽刺”???AI“讽刺”模型事实上,讽刺作为一种情感表达方式,是AI情感分析的重点研究方向。情感分析,又称倾向分析或意见挖掘,是对带有情感色彩的主观文本进行分析、处理、归纳和推理的过程。具有情感分析能力,对带有主观描述的自然语言文本,自动判断文本的正面和负面情感,并给出相应的结果。到底有什么好处呢?举个例子吧。在这次美国大选中,除了拜登和川建外两党参选外,Facebook创始人扎克伯格可能是最头疼的。一向以“言论自由”着称的Facebook,必须确保美国大选期间社交网络不能出现“虚假政治言论”。每天在一个庞大的社交网络上发布数以千计的帖子,其中一些具有政治风险,而另一些则没有。人工一一审查删除显然是不现实的。这时候,AI就派上用场了。早在美国大选前,FacebookAIResearch团队就开始使用AI语言模型来识别互联网上的虚假信息或仇恨言论。据统计,2020年第一季度,Facebook使用XLM语言模型删除了960万条涉及仇恨的帖子。演讲帖。对此,Facebook首席技术官MikeSchroepfer也表示,我并不天真地认为AI可以解决每天的问题,但我认为它确实可以帮助我们完成一些常见的任务,以及一些人类无法完成的亿级规模的任务。不会,任务繁重。在这个例子中,AI的难点在于如何提高其情感分析能力,准确识别含有虚假政治言论的帖子。但相比之下,识别“讽刺”对于AI来说可能比识别虚假政治言论更难。根据百度百科,“讽刺”是指通过比喻和夸张的方式揭露和批评人或事物;用挖苦、讽刺来形容敌对、落后的事物;用讽刺和嘲讽的语气对别人说话。很明显的讽刺,人类一眼就能看穿,但对AI来说却不是一件容易的事。2019年最新研究成果首次引入多模态检测AI模型HFM,准确率可达83%。最近,该研究取得了突破,准确率提高了2.74%。该成果来自中国北京信息工程研究所与中国科学院的联合研究团队。他们开发的新型多模态AI讽刺检测模型通过推特数据集可以达到86%的准确率。研究人员介绍,他们在2016年开始尝试多模态策略,并将其应用到Tumblr、Instagram和Twitter等多个网络数据集上进行测试。目前该研究成果代表了AI多模式讽刺检测的最高水平,并发表在计算机语言协会(ACL)、自然语言处理实证方法协会(EMNLP)等多个NLP顶级会议上.据了解,“多模态检测(MultiModalDetection)”已经成为一种主要的“讽刺”检测模式。此前,密歇根大学和新加坡大学的研究人员也曾使用语言模型和计算机视觉来检测电视节目中的讽刺内容。该研究还发表在ACL上。相比之下,这项研究成果的技术特色是什么?技术原理的特别之处在于,他们发现了多种模态之间的不一致!什么是多式联运?官方定义是每一种来源或形式的信息都可以是一种模态。例如,人有触觉、听觉、视觉、嗅觉,这些都是情态。那么对于推特帖子,文字、图片、视频分别代表三种模式。研究人员发现,现有的多模态讽刺检测方法通常只是简单地连接多模态特征或以设计的方式融合多模态信息,而忽略模态性别之间和内部的不一致。受此启发,他们提出了一种基于BERT架构的模型,可以有效解决这个问题。ModelFramework具体来说,研究人员利用Self-AttentionMechanism的思想,设计了一个inter-modalattention机制来捕获它们之间的不一致。在图中,预训练的BERT模型对给定的序列和其中的Hashtags进行编码。ResNet用于获取图像形式。我们使用模态内注意力来模拟文本中的不和谐,并使用内部模态来模拟文本和图像之间的不和谐。然后组合不一致信息并用于预测。实验结果表明,该模型在公共多模态讽刺检测数据集上实现了86%的最新性能。同时,研究人员还将该模型与现有模型基准进行了比较,从预测率(Precision)、召回率(Recall)、准确率(Accuracy)和F1分数等指标。结果显示,与当前最先进的分层融合模型HFM相比,性能提高了2.74%。与微调后的BERT模型相比,提升了2.7%。如图:从表中可以看出,只使用图像特征的模型表现不佳(72.6%),这说明对于多模态检测任务,图像无法单独处理。此外,基于文本模态的方法(均超过80%)比基于图像模态的方法具有更好的性能。因此,文本信息比图像信息对讽刺信息检测更有用。此外,经过微调的BERT模型表现优于其他非预训练的基于文本的模型,再次验证了研究人员的假设,即像BERT这样的预训练模型可以改进检测任务,这表明视觉+文本模式的模型通常是能够取得比其他模态更好的结果,同时也说明图像可以帮助提高检测性能。值得注意的是,从文本模式内部的模型来看,SIARN(80.5%)和SMSD(80.9%)都考虑了不一致的信息,性能优于TextCNN(80%)。因此,不一致的信息有助于识别讽刺,再次验证了研究人员提出的模态间不一致检测方法比简单的模态间连接方法更有效。更多论文详情请参考:https://www.aclweb.org/anthology/2020.findings-emnlp.124.pdf
