ChatGPT自发布以来就备受关注,被认为是目前最强大的语言模型之一。它的文本生成能力丝毫不输给人类,甚至一些机器学习大佬会明确禁止研究人员使用ChatGPT写论文。但是最近有一篇论文在作者栏中明确署名了ChatGPT。这是怎么回事?该论文发表在《Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models》上医学研究论文平台medRxiv,ChatGPT为该论文的第三作者。从论文题目可以看出,本文的主要内容是研究ChatGPT在美国医师执照考试(USMLE)中的表现。实验结果表明,在没有任何特殊训练或强化的情况下,ChatGPT在所有考试中的分数都达到或接近及格阈值。此外,ChatGPT生成的答案表现出高度的一致性和洞察力。该研究认为,大型语言模型可能有助于医学教育,并可能有助于临床决策。从研究内容来看,ChatGPT似乎更像是一个研究对象,就像Twitter网友所说:“如果人类研究人员对实验结果有贡献,他们当然是论文的共同作者,但模型和算法有还没有这样做。这是一个先例。”不过另一位网友立马在评论区反驳他:之前那篇名为《Rapamycin in the context of Pascal's Wager: generative pre-trained transformer perspective》的论文不仅署名,ChatGPT甚至是第一作者,这篇论文被美国国立卫生研究院(NIH)的Oncoscience收录。不过,来自作者的贡献,我们发现这篇论文的大部分内容确实是由ChatGPT生成的——论文的第二作者AlexZhavoronkov向ChatGPT询问了与研究主题相关的问题,ChatGPT自动生成了大量的意见和解释,然后ChatGPT生成的Content由AlexZhavoronkov主持。此外,ChatGPT还协助修改论文格式。《Rapamycin in the context of Pascal's Wager: generative pre-trained transformer perspective》论文内容截图。在确定论文作者身份时,AlexZhavoronkov联系了OpenAI联合创始人和CEOSamAltman求证,并最终以ChatGPT为第一作者发表论文,这表明大型语言模型等强大的AI系统将使c变得有意义。未来对学术工作的贡献,甚至有能力成为论文的共同作者。然而,让大型语言模型撰写学术论文也有一些缺点。例如,顶级机器学习会议ICML表示:“ChatGPT是在公共数据上训练的,这些数据通常是在未经同意的情况下收集的,这带来了一系列后果。责任归属。”在西北大学CatherineGao等人最近的一项研究中,研究人员选取了发表在美国医学会杂志(JAMA)、新英格兰医学杂志(NEJM)、英国医学杂志(BMJ)上的部分文章),《柳叶刀》和《Nature Medicine》上的人类研究论文使用ChatGPT生成论文摘要,然后测试审稿人是否可以发现这些摘要是AI生成的。实验结果表明,审稿人只能正确识别生成的摘要的68%和86%的原始摘要。他们错误地将32%的生成摘要识别为原始摘要,将14%的原始摘要识别为AI生成的。审稿人说:“区分两者出奇地困难,生成的摘要summary比较模糊,给人一种公式化的感觉。”这个实验的结果表明,人类研究人员很难区分文本是AI生成的还是人写的秒。不是什么好兆头,AI好像被“忽悠”了。然而,到目前为止,语言模型生成的内容并不能完全保证其正确性,甚至在一些专业领域的错误率非常高。如果没有能力区分人类编写的内容和AI模型生成的内容,人类将面临被AI误导的严重问题。
