当前位置: 首页 > 科技观察

OpenAI正式推出了AI生成的内容识别器,但成功率只有26%,网友:还不如论文抄袭检查工具

时间:2023-03-12 00:22:55 科技观察

很多人可能忘记了ChatGPT是去年11月底正式发布的,到现在才两个月。但它所引发的狂热促使科技公司效仿,催生了独角兽初创公司,并导致学术界修改其论文接受要求。在ChatGPT引发AI领域“是否禁用”大讨论之后,OpenAI的真伪识别工具终于来了。1月31日,OpenAI正式宣布推出区分人类作品和AI生成文本的识别工具。该技术旨在识别由其自身的ChatGPT、GPT-3和其他模型生成的内容。不过目前分类器的准确率似乎堪忧:OpenAI在博客中指出,AI识别AI的置信准确率高达26%左右。但该机构认为,它可以帮助防止AI文本生成器在与其他方法结合使用时被滥用。“我们提出的分类器的目的是帮助减少由AI生成的文本造成的混淆。但是,它仍然有一些局限性,因此它应该作为其他确定文本来源方法的补充,而不是作为一种主要决策工具,”OpenAI发言人通过电子邮件告诉媒体。“我们正在使用这个初始分类器来获得有关此类工具是否有用的反馈,并希望在未来分享改进。”随着最近技术领域围绕生成AI的热情,尤其是文本生成AI,但与对滥用的担忧相反,批评者呼吁这些工具的创造者采取措施减轻其潜在的有害影响。面对人工智能生成内容的泛滥,一些行业立即进行了限制,美国一些最大的学区已经禁止在其网络和设备上使用ChatGPT,担心这会影响学生的学习和该工具生成的内容的准确性。包括StackOverflow在内的网站也禁止用户分享ChatGPT生成的内容,称人工智能会在正常讨论中用无用的内容淹没用户。这些情况凸显了对人工智能识别工具的需求。虽然效果不尽如人意,但OpenAIAI文本分类器(OpenAIAITextClassifier)在架构上已经实现了与GPT系列的对标。与ChatGPT一样,它是一种语言模型,在来自网络的许多公共文本示例上进行训练。与ChatGPT不同,它经过微调以预测一段文本由AI生成的可能性——不仅来自ChatGPT,还来自任何文本生成AI模型。具体来说,OpenAI在来自五个不同组织(包括OpenAI本身)的34个文本生成系统的文本上训练了一个AI文本分类器。这些与来自维基百科的相似(但不相同)人工文本、从Reddit上共享的链接中提取的网站以及为OpenAI的文本生成系统收集的一组“人类演示”配对。需要注意的是,OpenAI文本分类器并不适用于所有类型的文本。检测到的内容至少需要1000个字符,或者大约150到250个单词。它没有纸质检查平台的抄袭检查功能——考虑到文本生成AI已被证明可以复制训练集中的“正确答案”,这是一个非常不舒服的限制。OpenAI表示,由于它的英语前向数据集,它更容易在儿童或用英语以外的语言编写的文本上出错。在评估一段给定的文本是否由AI生成时,检测器不会肯定地回答是或否。根据其置信度,它将文本标记为“非常不可能”由AI生成(几率小于10%)、“不太可能”由AI生成(几率在10%到45%之间)、“不确定是否它是“AI生成的(45%到90%的机会)”、“可能”AI生成的(90%到98%的机会)或“很可能”AI生成的(超过98%的机会)。看起来很像用于图像识别的AI,除了准确度。根据OpenAI的说法,分类器错误地将人类编写的文本标记为AI编写的文本的概率为9%。经过一番尝试,效果确实不好。OpenAI声称其AI文本分类器的成功率约为26%。有网友试用后发现,识别效果确实不怎么样。著名的ML和AI研究者SebastianRaschka试用后给出了“不行”的评价。他使用PythonML书的2015年第一版作为输入文本,结果如??下所示。RandyOlson的前言部分被识别为不清楚是否是AI生成的(不清楚)他自己的前言部分被识别为可能是AI生成的(可能是AI)第1章的段落部分被识别为可能是AI生成的(可能是AI)SebastianRaschka说这是一个有趣的例如,但他已经为将来可能因论文识别结果离谱而受到惩罚的学生感到难过。所以他提出,如果要部署这样的模型,请分享一个混淆矩阵。否则,如果教育工作者采用这种评分模式,他们可能会对现实世界造成伤害。还应该增加一些关于误报和漏报的透明度。另外,SebastianRaschka输入了莎士比亚的第一页的内容《麦克白》,OpenAIAI文本分类器给出的结果竟然极有可能是AI生成的。太离谱了!也有人上传了AI写作工具Easy-Peasy.AI创作的内容,OpenAIAI文本分类器判断这些内容极不可能是AI生成的。最后有人用重复翻译的方式,通过GPT3改写了文本,同样可以骗过识别器。综上所述,正向识别不准确,反向识别错误,有些修改论文的技巧是看不透的。看来,至少在AI文本内容识别领域,OpenAI还需要努力。