当前位置: 首页 > 科技观察

arXiv官方规定不允许使用ChatGPT

时间:2023-03-12 20:06:56 科技观察

ChatGPT等工具创作预印本,ChatGPT是最近发布的文本生成工具,引起了研究界的热烈讨论。它可以写学生论文、总结研究论文、回答问题、生成可用的计算机代码,甚至可以通过医学考试、MBA考试、司法考试……其中一个关键问题是:ChatGPT能否被命名为研究论文作者?现在,来自全球最大的预印本出版平台arXiv的官方回答是:“不”。AI没有作者身份在ChatGPT之前,研究人员使用聊天机器人作为研究助手,帮助组织思维、产生工作反馈、协助编写代码和总结研究文献。这些辅助作品看似是公认的,但说到“签名”,就完全是另外一回事了。“显然,计算机程序不能对论文的内容负责。它也不能同意arXiv的条款和条件。”有许多预印本和已发表的文章已授予ChatGPT官方作者身份。为了解决这个问题,arXiv为作者采用了一项关于使用生成AI语言工具的新政策。官方声明如下:arXiv承认科学家使用各种工具,从简单的到非常复杂的,来进行他们报告的科学和自己准备报告。社区对这些工具的适用性的看法可能会有所不同并且在不断变化;人工智能驱动的语言工具引发了焦点辩论。我们注意到,工具可能会产生有用和有帮助的结果,但也会产生错误或误导性的结果;因此,了解使用了哪些工具与评估和解释科学作品相关。基于此,arXiv决定:1.继续要求作者报告他们在工作中使用的任何复杂工具,例如仪器和软件;在主题标准的工具中。2.提醒所有同事,只要在论文上签了名,每个人都对论文的所有内容负全部责任,无论论文是如何生成的。如果生成式AI语言工具产生不恰当的语言、剽窃的内容、错误的内容、不正确的引用或误导性的内容,并且该输出被纳入科学结果,则由作者负责。3.生成式人工智能语言工具不应列为作者,见1。“规则”的含义日前,期刊《自然》公开表示与所有SpringerNature期刊制定了两个原则,并将这些原则添加到现有的作者指南中:第一,任何大型语言模型都没有工具将被接受为研究论文的指定作者。这是因为任何作者身份都伴随着对作品的责任,这是人工智能工具无法承担的。其次,使用大型语言建模工具的研究人员应该在方法或致谢部分记录这种使用。如果论文不包括这些部分,则可以使用简介或其他适当的部分来记录大型语言模型的使用。这些规则与arXiv最近发布的原则非常相似,似乎学术出版领域的组织已经达成了一些共识。ChatGPT虽然功能强大,但在学校作业、论文发表等领域的滥用却引起了广泛关注。机器学习会议ICML表示:“ChatGPT是在公共数据上训练的,这些数据通常是在未经同意的情况下收集的,这带来了一系列的责任归属问题。”因此,学术界开始探索检测ChatGPT等大型语言模型(LLM)文本生成的方法和工具。未来,检测内容是否由AI生成,可能会成为“审核流程的重要一环”。