Nature新规定:可以使用ChatGPT写论文,但不能列为作者。面对ChatGPT,Nature终于坐不住了。本周,这家权威学术出版机构告一段落,就ChatGPT代写学术研究文章、被列为作者等一系列问题进行了定性分析。具体来说,Nature列出了两条原则:(1)任何大型语言模型工具(如ChatGPT)都不能是论文的作者;(2)如果论文创作中使用了相关工具,作者应在“方法”或“致谢”或相应部分明确说明。这些要求现已添加到作者提交指南中。最近,学术界和研究界的ChatGPT插手案例越来越多。在去年12月的一篇关于雷帕霉素抗衰老应用的论文中,ChatGPT被列为作品,引起了业界的争议。除了这篇文章,还有很多研究将ChatGPT列为作者。大自然也注意到了这种情况。他们在12月进行的一项调查显示,在接受采访的293位教授和教师中,有20%的人注意到或目睹过学生使用ChatGPT来完成作业或论文,更多人表示担心。而这一次,《自然》发表的声明,恰恰是要给各种争议下一个定性的定义。许多论文都将ChatGPT列为作者。ChatGPT于去年11月底由OpenAI推出。因其性能大幅超越之前的大型语言模型(LLM),迅速成为年末年初的头号“天猴”。在新媒体、影视、软件开发、游戏交互等领域,迅速使用ChatGPT辅助制作,提高效率。学术界也不例外。根据Nature的统计,至少有4篇论文使用了ChatGPT并将其列为作者。其中一篇预印本于2022年12月发表在医学预印本数据库medRxiv上。该论文考察了ChatGPT在美国医师执照考试中的表现。虽然研究的是ChatGPT,但ChatGPT也列在了作者栏中。另一篇发表在期刊《护士教育实践》上的论文是关于开放式AI平台在护理教育中的利弊,ChatGPT再次被收录在作者栏中:AI药物研发公司InsilicoMedicine的第三篇论文,关于一种新药雷帕霉素,发表于《Oncoscience》。同样,ChatGPT被列为作者。第四篇有点“早”,发表于2022年6月,讨论的话题是——AI的论文生成能力如何。列为作者的AI并不是ChatGPT,而是更早发布的GPT-3。虽然以上研究内容或多或少与生成语言模型有关,但对于严肃的科研活动,使用“研究对象”来撰写论文并列入作者栏,难免会引起争议和质疑。而且即使没有将AI列为作者,ChatGPT在学术界和研究界的使用也越来越普遍。如上所述,人工智能药物研发公司InsilicoMedicine的首席执行官AlexZhavoronkov透露,他所在的机构已经发表了80多篇由人工智能工具生成的论文。英国教授MikeSharples一直关注生成式AI对学术研究的影响。不久前,他在推特上亲身演示了如何使用大型语言模型在10分钟内生成一篇学术论文,并一步步描述了他是如何使用AI根据题目生成摘要的,也引发了很多讨论.学生们更常见的是使用ChatGPT来帮助写论文、生成代码、完成作业。目前美国部分教育机构已经禁止使用该工具。就在上周,北密歇根大学的一名学生依靠ChatGPT写出了班级最高分的作文。有意思的是,学生之所以被抓,是因为提交的文章逻辑过于连贯,结构过于合理,以至于导师质疑后才知道真相。△北密歇根大学需要明确的是,上述抓包只是偶然,更多时候,生成的内容已经让科学家难以辨别真假。Nature此前的一篇文章指出,在ChatGPT发布后,伊利诺伊州西北大学的一个研究团队正在探索科学家是否可以识别使用AI工具生成的医学论文摘要。结果发现,所有AI生成的摘要都通过了抄袭检测器,并且32%的AI生成的摘要在人工审查中被认为是由真人完成的。一直在开发识别工具的Nature的终结表明他们对ChatGPT带来的问题的重视。在最新的内容中,Nature表示,学术界和研究界担心学生和研究人员可能会将大型语言模型生成的内容用作自己编写的文本。除了冒用风险外,上述过程还会产生不可靠的研究。综上所述。特别是对于ChatGPT,Nature团队和许多出版商和平台认为该工具不能对科学论文的完整性和内容负责。一个侧面的证据是,科技媒体CNET在这两天曝光了该平台上由AI撰写的77篇文章中有41篇存在错误。目前,该平台已对其进行纠正,并表示将暂停以这种方式制作内容。正是基于对上述情况的担忧,Nature发布了相关规定。至于如何区分AI生成的内容?Nature表示,通过仔细检查可以发现当前的ChatGPT原始输出,尤其是涉及到具体的科学工作时,内容可能包含最简单的错误和笼统而乏味的措辞。此外,Nature还表示,他们还在研发相关的识别技术。值得一提的是,相关的识别工具也已经开发出来。例如,OpenAI自己推出的GPT-2OutputDetector可以更准确地识别AI通过输入超过50个字符(token)生成的文本。再比如普林斯顿大学的学生EdwardTian,他也做了一个相关的工具GPTZero。尽管如此,并非所有大学教授和教师都对人工智能生成工具持否定态度。例如,宾夕法尼亚大学沃顿商学院教授EthanMollick反而要求学生使用ChatGPT来完成课堂作业,并认为这是在拥抱新兴的技术工具。论文发表平台medRxiv的一名工作人员也表示,ChatGPT并不是什么新麻烦。他认为,此前,研究人员曾试图偷偷加入宠物和虚构人物的名字。因此,他们认为问题的核心是需要继续加强检查。最后想问一下,你在研究工作中用过ChatGPT吗?
