当前位置: 首页 > 科技观察

抄袭,作弊,ChatGPT偷偷生成12篇签名论文!Marcus把Ta炸成CheatGPT

时间:2023-03-18 22:48:58 科技观察

Marcus又来ChatGPT了!今天,马库斯在他的个人博客上写道:事情变得离谱了。在你吹它之前看看答案是否正确。事情的起因源于FredEhrsam的一条推文。Ehrsam还询问了ChatGPT和谷歌“1公里等于1英里需要4分钟21需要多长时间?”他说ChatGPT给出了精确简洁的答案,但谷歌做不到。马库斯在回应这篇帖子时说:“它威严而傲慢,仿佛它是未来世界的象征。但顺便说一句,它的答案是错误的。”ChatGPT不能正确转换单位,作者只是一厢情愿如此自信这个伟大的新工具会给出准确的答案(甚至精确到秒!),他根本没有检查。这就是问题所在。统计词预测不能替代真正的数学,但很多人不这么认为。(每公里4分21秒的速度是每英里7分钟的速度。如果你能问对问题,它会给你正确的答案。)ChatGPT的“正确,但不太正确”的答案是最糟糕的部分不是它不对,而是它看起来很严肃。如此令人信服,Twitter用户甚至都没有怀疑它。这是现状:ChatGPT被滥用,人们信任它,甚至吹嘘它,尽管它与正确答案背道而驰。想知道什么比炒作更糟糕?人们开始将ChatGPT视为可靠且合格的科学合作者。求助,不要写关于ChatGPT的文章,因为合著者Marcus说昨天关于ChatGPT的头条新闻正在大肆宣传其压制Google的能力。今天,舆论正在讨论ChatGPT成为该论文的合著者。在去年12月发表的一篇预印本论文中,ChatGPT出现在了作者栏目中!无独有偶,从去年12月开始,ChatGPT的名字频频出现在医学领域的一些同行评议论文中:论文地址:https://www.oncoscience.us/article/571/text/根据SemanticSc??holar的数据,6周大的ChatGPT已经有两篇出版物,12篇合着和1次引用。我真诚地希望这种趋势不会继续下去。Marcus给出了五个理由:ChatGPT只是一个工具,不是人。它更像是一个拼写检查器、语法检查器或充其量是一个统计包,而不是一个科学家。它不能提供真实的想法,不能设计控制良好的实验,也不能从现有文献中汲取灵感。您不会让拼写检查器或电子表格成为共同作者。例如,您会在参考文献中引用资源,例如用于大脑分析的软件包,如SPM。没有人将SPM列为合著者,尽管它对研究工作很重要。共同作者在不同领域的定义不同,但一般来说,需要共同作者才能做出实质性的科学贡献。ChatGPT根本无法做到这一点;鉴于ChatGPT目前的科学理解水平,为其指定作者身份是对科学过程本身的不尊重。Marcus在之前的文章中写道,ChatGPT对物理学、生物学、心理学、医学等学科一无所知,并向大家解释了“聪明和愚蠢”的样子。在这个回答中,ChatGPT一本正经地说,科学家们发现油条是家里最好的手术工具。ChatGPT已证明自己既不可靠也不真实。它会产生令人发指的计算错误,编造虚假的传记细节,滥用词汇,并定义不存在的科学现象。不知道这些,你就不懂AI研究;如果你知道这一点却不在乎,那就更糟了。如果您将其设为合著者,则表明您只是在尝试效仿而不是实际进行研究。人们对ChatGPT过滤器的要求太高了。你不会相信一个只有75%正确率的计算器,那么如果你公开宣称你对用“糟糕”的人工智能工具“写”论文感到兴奋,我为什么要相信你呢?科学写作的目的是向他人清楚地传达真相。如果您将ChatGPT视为有情众生(显然不是),那么您就是在误导公众,让他们产生同样的感受;你不是在传播科学思想,你只是在炒作废话。请停止这种行为。最后,Marcus总结道:真正的朋友不会让ChatGPT成为你论文的合著者。如果说Marcus与LeCun等人就人工智能的前景、AGI的可行性展开激烈辩论,并指责LeCun将“人工智能路线图”占为己有,或多或少带来个人恩怨,那么这一次,对于ChatGPT所表达的担忧和警惕就切中要害了。事实上,Marcus上面所说的关于ChatGPT、论文欺诈和版权纠纷的言论,在ChatGPT推出仅几周后就成为了现实。近日,弗曼大学哲学教授达伦希克发现,一名学生提交的论文是由人工智能生成的。希克说,当他看到报纸上看似精心制作但虚假的信息时,他开始怀疑了。他将论文提交给OpenAI的ChatGPT检测器,结果显示该论文有99%的概率是由人工智能生成的。无独有偶,北密歇根大学教授AntonyAumann也表示,他还发现有两名学生提交了ChatGPT撰写的文章。在注意到这两篇文章的写作风格有问题后,Orman将文章提交给聊天机器人,询问程序编写它们的可能性有多大。当聊天机器人表示99%确定它是由ChatGPT编写的时,他将结果转发给学生。Schick和Orman都说他们与学生对质,他们最终都承认了违规行为。Schick的学生挂科了,Aumann让他的学生从头开始重写试卷。论文虽然有错误,但写得很好。两位教授表示,两篇AI生成论文中的一些关键点可以看出比较明显。希克说,他找到的论文提到了课堂上没有提到的几个事实,并提出了一个没有实际意义的主张。“从表面上看,这是一篇写得很好的文章,但仔细观察后,关于多产哲学家大卫休谟的说法毫无意义,甚至是彻头彻尾的错误,”他说。这种完美修改的错误是AI代笔的最大缺陷。对Orman来说,聊天机器人写得太完美了。“我认为这个聊天工具比我95%的学生都写得好。”“只是突然之间,你有一个没有表现出这种思维或写作能力水平的人写了一些完全按照它说的去做的东西,有复杂的语法和复杂的思想,直接与提示相关这篇文章,立刻感觉很不对劲,”他说。阿巴拉契亚州立大学哲学教授克里斯托弗·巴特尔(ChristopherBattelle)表示,虽然人工智能生成的文章的语法近乎完美,但内容往往缺乏细节。“没有背景,没有深度,没有洞察力。”抄袭难举证:不供认就无能为力。论文,学术界很可能会遇到麻烦。Battelle说,目前,一些学术机构的规则还没有发展到可以打击这种作弊行为。如果学生特意否认人工智能的使用,实际上很难最终证明这种作弊行为。他还表示,OpenAI自己的AI检测工具不错,但并不完美。这个工具是对文本由人工智能生成的可能性的统计分析,给出一个概率。现在的政策一般是要有明确的、可验证的证据证明一篇论文是假的,才能算是石锤,这让我们的处境非常为难。如果返回的结果有95%的可能性是AI生成的文章,则有5%的可能性不是。在席克的案例中,虽然测试网站说该卷子“99%确定”该卷子是人工智能生成的,但实际上,关键在于学生自己的录取。远远不够。席克表示,口供很重要,其他都是旁证。对于人工智能生成的内容,一般不存在物证,物证的权重大于旁证。”阿曼表示,虽然他认为对聊天机器人的分析已经有足够的证据采取行动,但利用人工智能进行抄袭和作弊对高校来说仍然是一个新的挑战。想一想,把它变成CheatGPT也是分分钟的事情。