当前位置: 首页 > 科技观察

“AI作家”火了!大学生用GPT-3写“鸡汤作文”,把一帮人骗上科技头条

时间:2023-03-13 00:36:53 科技观察

GPT-3是一个由1750亿个参数组成的OpenAI语言人工智能模型。总部位于旧金山的OpenAI研究实验室于5月开始推出该模型,引起了越来越大的轰动。这个庞大的语言模型几乎可以完成所有可以用文字表达的工作:从回答问题、写文章、写诗,甚至写代码……应有尽有。那么它在现实中的威力到底有多大呢?近日,刚在国外上手GPT-3的伯克利大学生LiamPorr使用化名,然后利用人工智能模型搭建了一个完全虚假的博客。然而,这却成功地“欺骗”了一大批内容阅读者。这个讽刺骗人的“AI把戏”很快就骗过了HackerNews等技术极客圈子,随后真相大白——瞬间成为热门话题——一个完全由AI打造的人怎么就中了这么多人的当?“博客”被骗了?还有很多人“订阅”上面的新闻?虽然很多人猜测GPT-3这个迄今为止最强大的语言生成AI工具将如何影响内容生产,但这种“恶心”的程度和影响却出乎他们的意料。这是GPT-3唯一一次以如此真实的方式展示自己,足以说明这个工具的应用潜力。在加州大学伯克利分校学习计算机科学的Pohl说,这次经历的突出之处在于:“这实际上非常简单,而且这是最可怕的部分。”虽然GPT-3还没有完全开放流行的“AI鸡汤”,但鲍尔还是轻松获得了接口。鲍尔递交了一份申请。他填写了一张表格,其中包含一份关于他的预期用途的简单问卷。但他没有太多时间等待。在联系了伯克利AI社区的几位成员后,他很快找到了博士学位。已经有特权的学生。博士后学生同意合作,Ball很快写了一个小脚本让他运行。它给了GPT-3一个博客文章的标题和介绍,以及几个完整的版本。Porr的第一篇文章(HackerNews上的那篇)以及此后的每篇文章都是从输出中复制粘贴的,几乎没有编辑。“从我有了想法并与那个博士生取得联系到实际创建博客——可能只花了几个小时,”他说。Pohl的第一篇假帖子,以化名“adolos”Blog所写,意外成功登上YC新闻平台HackerNews热榜榜首!Ball说,他使用三个不同的帐户来提交HackerNews并对其进行投票,以试图推高他的帖子。管理员说该策略不起作用,但他的点击率标题起作用了。在不进行过多编辑的情况下生成内容的诀窍是了解GPT-3的优缺点。“它擅长创造优美的语言,但不擅长逻辑和理性,”波尔说。于是他选择了一个不需要严格逻辑的热门博客分类——“鸡汤”,这样可以高效自助式输出。然后,他根据一个简单的公式撰写标题:他搜索Medium和HackerNews以查看这些类别中发生的事情,并将相对相似的内容放在一起。《感觉生产力不高?也许你应该停止思虑过多》""(感觉效率低下?也许你应该停止想太多了)他为其中一篇文章写道。《大胆和创造力胜过智慧》(勇气和创造力胜过智慧),他在另一篇文章中写道。有几次,标题并没有起到作用。但只要他坚持正确的主题,这个过程就很容易实现。“鸡汤文”成功帮助博客增加了粉丝。两周后,他几乎每天都在发帖。此后不久,HackerNews上有人指责Ball的博文是由GPT-3撰写的。另一位用户回应称该评论“无法接受”。甚至有读者看完后评论说:“好文章!像伊桑·霍克的Ted演讲一样深刻!”少数对Ball的假博客持怀疑态度的人遭到了社区其他成员的反对。并不是说“大众的眼睛是雪亮的”。大多数人都惊呆了,因为他们没有意识到这些文章不是人类写的。Medium、YC的新闻平台等多家平台都转载并发布了他的第一篇博客,而他的博客还在疯涨……这让小Gopol感到不安,但也很意外。Pohl说他想证明GPT-3可以模仿人类作家。事实上,尽管算法的写作模式很奇怪并且偶尔会出现错误,但在他在HackerNews上最重要的帖子中,只有三四个人怀疑该算法可能是由算法产生的。此外,所有这些评论立即被其他社区成员否决。最后,Ball以他自己撰写的神秘信息结束了该项目。这篇标题为《如果我没有道德,我将如何对待GPT-3》的文章将他的过程描述为一个假设。同日,他还在自己的真实博客上发表了更为直白的供述,从头到尾对“假博客”进行了澄清和揭穿。AI语言工具引起关注和思考根据OpenAI的计算能力统计单位petaflops/s-days,训练AlphaGoZero需要1800-2000pfs-day,而OpenAI的GPT-3使用3640pfs-day,看来OpenAI拥有微软的无限算力,现在我真的为所欲为。对于专家来说,这一直是此类语言生成算法关注的问题。自从OpenAI首次发布GPT-2以来,就一直有人猜测它很容易被滥用。GPT-3成为OpenAI迄今为止推出的最新、最大的AI语言模型。在自己的博客文章中,该实验室专注于人工智能工具作为大规模错误信息武器的潜力。其他人想知道它是否可以用来大量发送与GooglePlay相关的关键字的垃圾邮件。去年2月,OpenAI的GPT-2(该算法的早期版本)登上了头条,OpenAI宣布将保留该版本以防止其被滥用。这一决定立即引发强烈反对,研究人员指责该实验室是一个“噱头”。11月,该实验室终于改弦更张,发布了该模型,当时声称“目前尚未发现强有力的滥用证据”。这不,这次“翻车”转的有点硬。该实验室对GPT-3采取了不同的方法;它既不拒绝也不允许公众访问。相反,它将算法提供给申请私人测试的研究人员,目的是在年底前收集他们的反馈并将该技术商业化。Pohl说,他的实验还显示了一个更平凡但仍然令人不安的选择——人们可以使用该工具生成大量点击诱饵内容。“很有可能会有很多平庸、低质量的博客内容,因为现在进入的门槛很低,”他说。“我认为在线内容的价值将大大降低。”Ball计划通过GPT-3实验做更多的事情。但他仍在等待OpenAI介入。“他们可能对我所做的不满意,”他说。“我的意思是,这有点傻。”情报研究实验室之一。与Alphabet的DeepMind等其他人工智能巨头一样,谷歌凭借源源不断的引人注目的研究为自己赢得了声誉。它也是硅谷的宠儿,创始人包括埃隆马斯克和传奇投资人山姆奥特曼。最重要的是,它因其使命而受到尊敬。它的目标是成为第一台创造人工智能的机器——一种具有人类思维学习和推理能力的机器。目标不是统治世界;相反,该实验室希望确保该技术得到安全开发,并确保其收益在全球范围内平均分配。这意味着如果AGI技术的发展遵循阻力最小的路径,它很容易失控。我们周围笨拙的人工智能就是一个例子。问题是,AGI一直都是模糊的。该领域的共识是,如果完全有可能开发这种先进能力,即使不是几个世纪,也需要数十年时间。许多人还担心,在这个目标上过于努力可能会适得其反。大多数人第一次听说OpenAI是在2019年2月14日。那天,该实验室宣布了一项令人印象深刻的新研究:只需按一下按钮即可生成引人注目的论文和文章。但有一个问题:研究人员说,这种被称为GPT-2的模型太危险了,无法释放。如果这种强大的技术落入坏人之手,它很容易被“武器化”以制造大量虚假信息。这立即引起了科学家们的强烈反对。在持续不断的炒作指控中,OpenAI坚称GPT-2不是噱头。相反,这是一项经过深思熟虑的实验,是在一系列内部讨论和辩论之后达成一致的。共识是,即使此举有点过头,也会为处理更危险的研究开创先例。但OpenAI与GPT-2的媒体宣传活动也遵循了一种既定的模式,这让更广泛的AI社区产生了怀疑。多年来,该实验室高调的大型研究公告一再被指责助长了AI炒作周期。批评者不止一次指责该实验室夸大其发现,甚至到了错误描述的地步。由于这些原因,该领域的许多人倾向于保持距离。GPT-2引发如此强烈反对还有另一个原因。人们觉得OpenAI再次违背了之前公开透明的承诺,转而追求盈利。未发表的研究引起了担忧和怀疑——该技术是否一直处于保密状态以准备未来的许可?但人们并不知道,这并不是OpenAI唯一一次选择隐藏其研究。