当前位置: 首页 > 科技赋能

Facebook 正在使用人工智能来检测 Deepfake 视频!

时间:2024-05-22 10:53:28 科技赋能

所谓的“深度伪造视频”现在是美国立法者的主要担忧,他们担心人工智能伪造的政府人员视频可能成为国家安全威胁。

Facebook 表示,它已经建立了一个机器学习模型来检测潜在的虚假照片或视频,然后将这些模型发送给事实核查人员进行审查。

第三方事实核查合作伙伴可以使用视觉验证技术来审查内容,包括反向图像搜索和图像元数据分析。

Facebook 打算利用其照片和视频评论者收集来提高其机器学习模型的准确性,以检测这些媒体格式中的错误信息。

它定义了照片和视频中的三种类型的错误信息,包括:操纵或制作的内容;断章取义的内容;以及文本或音频中的虚假声明。

Facebook 高度概述了识别图像和视频内容中的虚假信息(与文本相比)的困难,以及用于克服这些困难的一些技术。

但总体而言,Facebook 给人的印象是,距离大规模检测视频和照片中的错误信息的自动化系统还差得远。

目前,它正在使用 OCR 从照片中提取文本,例如照片上的虚假标题,以便可以将文本与事实检查文章的标题进行比较。

它还正在开发检测照片或视频是否被篡改的方法。

它通过使用音频转录来比较从音频中提取的文本是否与事实核查人员之前揭穿的文本中的声明相匹配来实现这一点。

Facebook 产品经理 Tessa Lyons 表示:“目前,我们在照片上使用 OCR 技术比在视频上使用音频转录技术更先进。

”与文章一样,一旦事实核查人员确认虚假视频和照片是虚假的,Facebook 将重点识别这些虚假视频和照片的重复内容。

里昂斯表示,Facebook 在查找照片的精确副本方面“相当擅长”,但 Facebook 更难自动检测图像是否被轻微篡改。

莱昂斯说:“我们需要继续投资技术,帮助我们识别那些发生了微小变化的非常接近的副本。

”莱昂斯说,检测某些内容是否断章取义也是一项重大挑战。

“了解某些内容是否断章取义是我们正在投入的一个领域,但还有很多工作要做,因为你需要了解媒体的原始语境、媒体呈现的语境以及是否存在断章取义的情况。

”两者之间存在差异,”她指出。

照片和视频内容中的错误信息的影响也因国家/地区而异。

Facebook 发现,在美国,大多数人报告在文章中看到了错误信息,而在印度尼西亚,人们更经常报告在照片中看到了误导性信息。

“在媒体生态系统欠发达或识字率较低的国家,人们可能更有可能看到照片上不正确的说明文字,或者看到假照片,并将其解读为新闻,而在新闻生态系统强大的国家中,人们可能更容易看到‘照片’概念。

” “新闻”更多地与文章相关,”里昂说。