当前位置: 首页 > 科技观察

ChatGPT让Nature每周发两篇文章讨论:学术圈的使用不可避免,是时候厘清使用规范了

时间:2023-03-13 21:55:04 科技观察

在科技巨头争夺ChatGPT的另一边,学术圈也在付出更多关注ChatGPT。一周之内,《自然》杂志发表了两篇讨论ChatGPT和生成式AI的文章。毕竟ChatGPT最早在学术界掀起波澜,一些学者用它来写摘要和修改论文。Nature对此特别下了禁令:ChatGPT不能是论文的作者。Science直接禁止投稿使用ChatGPT生成文本。但趋势已经在望。现在应该做的,或许是厘清ChatGPT对科学界意味着什么,它应该处于什么位置。正如Nature所说:生成式AI及其背后的技术发展如此之快,以至于每个月都有创新。研究人员如何使用它们将决定技术和学术界的未来。ChatGPT改变学术圈规则研究人员在文章《ChatGPT:五大优先研究问题》中指出:无法阻止ChatGPT进入学术圈,当务之急应该是研究和探索它可能带来的潜在影响。如果后续使用ChatGPT设计实验、进行同行评审、协助发表、帮助编辑决定是否录用文章……这些应用应该注意哪些问题?人类现在需要划清哪些界限?根据研究人员的说法,有5个领域需要优先考虑并解释原因。ChatGPT等对话式AI坚持人工审核的特点之一是无法保证回答内容的准确性。而且,胡编乱造的东西还是很自然的,很容易误人子弟。例如,研究人员要求ChatGPT提供一篇关于认知行为疗法(CBT)是否能有效治疗焦虑等症状的论文的概要概述。ChatGPT给出的答案有很多事实错误。例如,它说该评论基于46项研究,而实际上是69项,它夸大了CBT的有效性。研究人员认为,如果一些学者使用ChatGPT来帮助研究,他们很可能会被错误的信息误导。它甚至会导致学者在他人不知情的情况下剽窃他人的成果。因此,研究人员认为,在审稿过程中,人类不能过多依赖自动化系统,科学实践最终要由人类负责。制定问责规则为了应对生成式AI的滥用,许多AI文本识别工具相继诞生。他们可以区分一段文字是否是人写的。不过,研究人员认为,这种“军备竞赛”是不必要的,真正需要的是让学术界和出版商更公开透明地使用人工智能工具。论文作者应明确标注AI承担了哪些工作,如果期刊使用AI审稿,也应公开说明。尤其是现在生成式AI引发了专利问题的讨论,那么AI生成的图像的版权应该如何计算呢?那么AI生成的问题,版权应该属于为AI提供训练数据的人吗?AI背后的制作公司?还是用AI写文章的学者?作者身份问题也需要严格界定。投资真正开放的LLM目前,几乎所有先进的对话式AI都是科技巨头带来的。关于AI工具背后的算法是如何工作的,还有很多未知数。这也引起了社会各界的关注,因为巨头的垄断行为严重违反了科学界的公开原则。这将影响学术界探索对话式人工智能的不足和底层原理,并进一步影响技术的进步。为了克服这种不透明性,研究人员认为现在应该优先开发和应用开源人工智能算法。例如,开源大模型BLOOM由1000名科学家共同发起,其性能可媲美GPT-3。虽然拥抱AI的优势有很多方面需要限制,但不可否认的是AI确实可以提升学术界的效率。比如一些综述工作可以通过AI快速完成,学者们可以更专注于实验本身,结果可以更快发表,从而推动整个学术圈的步伐走得更快。即使在一些创造性的工作中,研究人员认为人工智能也能发挥作用。1991年的一篇开创性论文提出,人类与人工智能之间形成的“智能伙伴关系”可以超越人类单独的智力和能力。这种关系可以将创新加速到难以想象的水平。但问题是,这种自动化能走多远?你应该走多远?因此,研究人员也呼吁包括伦理学家在内的学者共同探讨当今人工智能在知识内容生成方面的边界。人类的创造力和独创性对于创新研究来说可能仍然是不可或缺的。发起一场大辩论鉴于当前LLM的影响,研究人员认为学术界应该紧急组织一场大辩论。他们呼吁每个研究小组立即开会讨论并亲自试用ChatGPT。大学教师应主动与学生讨论ChatGPT的使用和伦理问题。在早期规则还不明确的时候,课题组组长呼吁大家更加公开透明的使用ChatGPT,开始形成一些规则是很重要的。并且应该提醒所有研究人员对自己的工作负责,无论它是否由ChatGPT生成。更进一步,研究人员认为迫切需要一个国际论坛来讨论LLM研究和使用问题。成员应包括来自各个领域的科学家、技术公司、机构投资者、科学院、出版商、非政府组织以及法律和隐私专家。Nature:ChatGPT和AIGC对科学意味着什么感到兴奋和担忧,这可能是许多研究人员对ChatGPT的感受。时至今日,ChatGPT已经成为众多学者的数字助手。计算生物学家CaseyGreene等人。使用ChatGPT修改论文。5分钟,AI可以审阅一篇稿件,甚至可以在参考文献部分找到问题。来自冰岛的学者HafsteinnEinarsson几乎每天都使用ChatGPT来帮助他做PPT和检查学生作业。而神经生物学家AlmiraOsmanovicThunstr?m认为,大型语言模型可以用来帮助学者撰写资助申请,科学家可以节省更多时间。然而,Nature对ChatGPT的输出做出了精彩的总结:流畅但不准确。要知道,ChatGPT的一大缺点就是它生成的内容可能不真实准确,这会影响它在学术界的使用。能解决吗?从现在开始,答案有点扑朔迷离了。OpenAI的竞争对手Anthroic声称已经解决了ChatGPT的部分问题,但他们没有接受Nature的采访。Meta发布了一个名为Galactica的大型语言模型,它是从4800万篇学术论文和书籍中提炼出来的。它声称擅长生成学术内容并更好地理解研究问题。但是现在它的demo没有开放(代码还是可以用的),因为用户在使用过程中发现它存在种族歧视。即使是被训练得“乖巧”的ChatGPT,在刻意引导下也可能会输出危险言论。OpenAI让ChatGPT可信的方法也很简单粗暴。就是找了很多人来标注语料库。有声音认为,这种雇人阅读有毒语料库的行为也是一种剥削。但无论如何,ChatGPT和生成式AI为人类的想象打开了一扇新的大门。医学学者EricTopol表示,他希望未来包括LLM在内的人工智能能够交叉检查学术文献中的文本和图像,从而帮助人类诊断癌症和理解疾病。当然,这一切都必须在专家的监督下进行。他说,我真的没想到我们会在2023年初看到这样的趋势。而这仅仅是个开始。参考链接:[1]https://www.nature.com/articles/d41586-023-00340-6[2]https://www.nature.com/articles/d41586-023-00288-7