当前位置: 首页 > 科技观察

人工智能如何消除互联网上的假新闻和偏见

时间:2023-03-13 05:53:18 科技观察

人们总是有可能听到或读到不准确的信息,无论是来自报纸、杂志、在线资源还是广播。自人类文化诞生以来,虚假信息就一直存在,但我们从相互关联的网络世界接收到的大量信息使我们特别容易无意中摄入扭曲或伪造的材料。人们需要了解人工智能如何帮助解决假新闻和偏见的复杂性。消费者习惯于让他们的意见受到他们在网上阅读、看到和听到的内容的影响,例如通过影响者营销或名人代言。意见有很大的力量,不管事实是否支持,许多假新闻依赖于激起强烈的情绪。当涉及到人的关注和感受时,往往需要停下来考虑一下我们所听到或读到的是否准确。根据麻省理工学院研究人员的说法,真实新闻在Twitter上达到1,500人所需的时间是假新闻的六倍。此外,准确新闻和假新闻的链长(分享社交媒体帖子的人数)极不成比例。可验证的新闻从未超过10个,但假新闻增加到19个。这部分是由于恶意行为者使用机器人群传播不正确的信息。虚假信息现在正在影响全球的人民、政府和企业。在当今不断扩大的数字信息经济中,发现和隔离所谓的“假新闻”是一项重大任务。然而,人工智能(AI)的改进可能会让在线信息的用户更容易区分现实与虚构。下面介绍如何使用人工智能来阻止错误信息的传播并使互联网成为更加平衡的新闻来源。人工智能在文章评价中的地位是什么?通过使用先进的算法来发现和接触可能容易吸收信息的人,合法公司使用人工智能来定位和定位最有可能的信息或意见的消费者。例如,谷歌已经实施了其RankBrain算法,在2015年打开了一个新窗口,以提高其识别权威结果的能力。为了区分计算机生成的材料和人类生成的文本,基于AI的技术可以对文本内容进行语言分析,并找到诸如词模式、句法结构和可读性等线索。这些算法可以分析任何文本,通过查看词向量、词位置和内涵来查找仇恨言论的实例。新应用程序和项目的虚假新闻来源通常在信息传播之前来自非法来源。Fandango项目寻找社交媒体帖子或互联网网站,这些帖子或网站在使用人类事实核查员认为虚假的文章后提出了相同的条款或声明。这使得记者和专家能够追踪虚假信息的来源,并在他们有机会失控之前消除任何危险。Politifact、Snopes和FactCheck使用人工编辑进行必要的初步调查,以确认故事或图像的真实性。一旦识别出假货,人工智能系统就会在网络上搜索可能引发社会动荡的类似信息。此外,如果应用程序确定材料是真实的,则可以为网站文章分配信誉分数。一些AI引擎目前在其评估分数中使用以下措施:?情绪分析:记者对他们撰写的一般新闻或特定主题的态度。?意见分析:个人感受、意见、信念或对记者工作的评价?修订分析:研究新闻故事如何随时间变化以及它如何操纵公众的看法和情绪。?宣传分析:使用宣传分析检测多达18种不同的说服策略,这可以帮助您发现潜在的虚假信息。所有这四个结合在一起,可以全面了解一篇文章的可信度以及我们面临的问题。AI挑战以及如何克服它们GPT-3等语言模型已经可以根据一行提示创建文章、诗歌和散文。人工智能已经接近完善类人材料的创造。人工智能使得操纵各种信息变得如此容易,以至于FaceSwap和DeepFaceLab等开源程序可以将缺乏经验的新用户变成潜在的社会动荡中心。由于这些语义分析算法无法破译未更改但在有害或不准确的上下文中传播的仇恨言论图像的实质,这些问题变得更糟。一旦发现欺诈性内容,将其删除比看起来更具挑战性。一些组织可能会被指控进行审查并试图隐藏一个组织或另一个组织认为不真实的信息。在言论自由权与打击虚假信息和假新闻之间找到平衡是困难的。人工智能通常也缺乏识别幽默和恶搞的能力。因此,如果以轻松或开玩笑的方式使用假新闻或虚假信息,则可以归类为恶意虚假信息。但不可否认的是,人工智能可以成为打击假新闻的巨大资产。在打击虚假互联网新闻的斗争中,技术至关重要,因为它可以处理海量的材料。假新闻不是仅靠算法就能解决的问题——我们需要在获取知识的方式上转变思维方式。虽然专业团体之间协作知识的众包对于评估原始数据至关重要,但知识渊博的用户社区也可以支持道德监督行动。没有各方参与的积极行动会加速公众对机构和媒体失去信心,这是无政府状态的前奏。在人类能够发展出客观分析在线内容的能力之前,基于人工智能的技术必须成为打击互联网错误信息的伙伴。