资深专家也无法准确区分ChatGPT写的科学论文,学术性强到连资深科学家都分不清。在12月下旬发表在bioRxiv服务器上的一篇预印本论文中,人工智能(AI)聊天机器人已经具备编写令人信服的虚假研究论文的能力,如果不经过仔细筛选,科学家就无法分辨这些论文。“我对此非常担心,”在英国牛津大学研究技术和监管的桑德拉·瓦赫特(SandraWachter)说。“如果专家无法分辨论文是真是假,那将影响我们研究的基础。”IT之家小课堂:ChatbotChatGPT根据用户提示创建逼真且听起来智能的文本。它是一种“大型语言模型”,一种基于神经网络的系统,可以通过消化大量现有的人类生成的文本来学习执行任务。总部位于加利福尼亚州旧金山的软件公司OpenAI于11月30日发布了该工具,并且可以免费使用。伊利诺伊州芝加哥西北大学的CatherineGao领导的一个小组使用ChatGPT生成人类研究论文的摘要,以测试科学家是否能发现它们。研究人员要求聊天机器人根据《美国医学会杂志》(JAMA)、《新英格兰医学杂志》(新英格兰医学杂志)、《英国医学杂志》(英国医学杂志)、《柳叶刀》(柳叶刀)和中发表的数据做出回应(NatureMedicine)从.上的选集中写50篇医学研究摘要。然后,他们通过剽窃检测器和AI输出检测器将这些摘要与原始摘要进行比较,并要求一组医学研究人员发现捏造的摘要。ChatGPT生成的摘要以优异的成绩通过了抄袭检查器:原创得分中位数为100%,表明未检测到抄袭。AI输出检测器发现了66%的生成摘要,而人工审查仅正确识别了68%的生成摘要和86%的真实摘要。专家错误地将32%的生成摘要识别为真实摘要,将14%的真实摘要识别为生成摘要。
