当前位置: 首页 > 科技观察

学校取缔,大厂取缔,ChatGPT引起广泛恐慌!

时间:2023-03-16 01:00:46 科技观察

12月,当ChatGPT大行其道时,许多学者和研究人员发出警告:ChatGPT很可能“杀死”大学论文。近日,纽约市教育局正式发布了对ChatGPT的禁令。无独有偶,在多家互联网大公司,ChatGPT也被屏蔽。很多习惯了找ChatGPT问代码问题的码农泪流满面……大厂屏蔽了ChatGPT,码农哭了ChatGPT。这直接让他崩溃了。博主说自己是一名初级软件工程师,在团队中,前辈们总是很忙,没有时间向他解释问题。每当他在工作中遇到困难时,ChatGPT就是他的救星。可是昨天,当他在办公室坐下的时候,突然发现无法访问ChatGPT!他瞬间破防。在他的帖子下,热心网友纷纷献计献策。比如购买便宜的VPS和域名,设置反向代理到ChatGPT官网;在浏览器中启用DoH和ECH;使用在线代理;或者用手机把输出结果发邮件给自己等等。当然也有网友比较认同公司的操作:“你们公司禁用ChatGPT是非常合理的,想想看,如果你的代码解决公司的问题可以轻而易举被竞争对手获得,会有什么后果?”“不要向ChatGPT复制和粘贴代码。从法律上讲,公司或客户的代码不属于你。而且你没有ChatGPT上代码的版权。如果这样做,你将面临诉讼确实,一些大厂已经给员工发邮件说:“ChatGPT不是不可用,但是如果你往里面上传代码,你将面临被解雇的风险,因为我们的代码非常敏感。”然而,有也有网友给出了暖心的回复:“如果一个初级开发者没有ChatGPT就不能完成他的工作,那他对公司来说真的是可有可无。”纽约发布禁令,全校师生禁止。1月3日拥有全美最大公立学校系统的纽约市正式颁布了“ChatGPT禁令”。也就是说,教师和学生都不能在纽约市公立学校的网络和设备上使用ChatGPT。最近,洛杉矶和巴尔的摩的学区已经加入d队伍。纽约市教育局发言人珍娜莱尔表示,虽然ChatGPT可以提供快速简单的问题解答,但它并没有培养学生的批判性思维和解决问题的能力,而这对学业和终身成功至关重要。当然,如果学校的目的是研究ChatGPT背后的技术,还是可以申请访问的。目前,ChatGPT对论文作弊的风险有何影响还有待观察,因为学生仍然可以在校外访问自己的设备和网络。佐治亚州科布县的态度不仅没有那么强硬,甚至有兴趣采用ChatGPT。学区发言人说:“在高素质的科布县教师手中,ChatGPT可以成为补充学生对学术内容理解的宝贵工具,并可以帮助学生培养批判性思维能力。”在高中BrooklynTech任教的AdamStevens也认为禁用ChatGPT会产生负面影响。毕竟,在15或20年前,当学生可以“在线找到答案”时,这就是这些人针对Google的目标。根据史蒂文斯的说法,培养学生批判性写作技能的最佳方式是“邀请他们探索值得了解的事物”,并摆脱基于严格评分标准的公式化写作教学。“当然,如果你更看重学期末的成绩,那么ChatGPT确实是一个威胁。”同样,俄勒冈州桑迪市的一位高中英语老师也有类似的看法。Shields老师拥有25年的教学经验。她认为,其实没有必要“谈ChatGPT变色”。这种AI可用于帮助学生产生想法、组织想法,甚至撰写整篇论文。在她看来,教师应该接受AI是学生可以使用的工具,就像每个老师都教学生如何使用搜索引擎一样。许多学生苦于没有什么可写的。这时,教师可以使用ChatGPT向学生展示如何生成提示来刺激他们的写作。Shields先生让ChatGPT以7年级学生、10年级学生和大学生的风格写了关于同一主题的文章,每个级别之间的句法差异程度令人震惊。因此,完全可以利用这种人工智能生成的反馈来向学生展示如何提高他们的写作水平。ICML发文澄清:主要是防止抄袭,不影响文章润色前两天,国际机器学习大会ICML2023突然宣布禁止使用大规模语言模型(如ChatGPT)生成内容论文,除非这些文本是实验分析的一部分。这个要求一经提出,就引起了很多研究者的不满:拼写检查和文本预测都是基于语言模型的,为什么不让我们用呢?对此,图灵奖获得者YannLeCun评论道:“大语言模型不能用,也就是说中小语言模型可以替代?”然后他不忘阴阳一句:“明年的ICML伦理规范应该变成:研究人员必须手工完成各种计算,不借助计算机;各种图形必须用笔手写和论文;从今天起,ICML的官方语言变成了瑞典语(瑞典语:?)。”由于讨论火爆,ICML不得不单独发了一篇长文来解释这条规则。总结起来,主要有三点:政策禁止完全由LLMs“生成”的文本,但这并不妨碍作者使用LLMs来编辑或润色他们写的文本。该政策主要是为了防止使用LLM可能出现的潜在问题,例如剽窃。目前,该政策仅适用于ICML2023。随着我们更好地理解,该政策可能会在未来的会议中发生变化LLM及其对科学出版的影响公告链接:https://icml.cc/Conferences/2023/llm-policyLarge-scalelanguagemodel,control过去几年,大规模语言模型(LLM)的发展一直非常迅速。最近,这个进展不仅没有放缓,反而加速了。正如你所看到的,过去几个月发布的LLM,例如OpenAI的ChatGPT,已经能够生成无法区分的文本片段e来自人类。毫无疑问,这是自然语言处理和生成领域令人兴奋的发展。但这种快速的进步往往伴随着意想不到的后果和未解决的问题。例如,文字和图像是模型小说生成的,还是现有作品的衍生作品?此外,谁应该拥有这些模型生成的文本、图像和其他内容的片段:生成模型的用户、训练模型的开发人员或生成训练数据的内容创建者?可以肯定的是,随着大规模生成模型变得更广泛可用,这些问题都会随着时间的推移得到解答,但现在还没有。尤其是距离ChatGPT发布仅仅不到2个月的时间(2022年11月下旬)。至于ICML,他们没有足够的时间去观察和调查ChatGPT会对论文的审稿和发表过程产生什么影响。考虑到这项新技术所采用的策略会直接影响研究人员的职业生涯。因此,ICML表示只能更加谨慎,甚至有些保守。不时有错误和遗漏,但码友们依然爱不释手。事实上,虽然ChatGPT经常被人嘲笑“笨”,但自从它诞生一个多月以来,确实有不少码农的工作习惯被它改变了。12月初,ChatGPT登场后,码友们发现可以用它来生成代码,顿时沸腾了。ChatGPT不仅可以回答任何领域的问题,而且生成的答案很有可能非常精确和详细。例如,当你问“HowtoiterateoverankeysandvaluesarrayinJavascript”时,它会生成一个完美的答案。锦上添花的是,ChatGPT还可以通过示例和解释告诉你这个JavaScript常见问题的最佳解决方案:甚至,你可以用它来纠正代码。但紧接着,码农们立刻发现,ChatGPT生成的代码其实存在很多问题。ChatGPT会“傻”,背后的原因其实很简单——AI的输出是概率性的。ChatGPT没有任何标记为正确或错误的内部记录。它实际上是一个统计模型。在这个模型中,它是不同语境下的语言组合。上下文的基础是用于GPT-3训练的整体数据集、来自ChatGPT的RLHF训练的附加上下文、提示和之前的对话,以及即将提供的反馈。ChatGPT的答案本质上是从构成GPT-3的互联网数据语料库中收集的概率结果。在10秒内,ChatGPT对结果做出了最佳猜测,这很可能是正确的。当然,也有出错的可能。这也是为什么,当网友们用ChatGPT生成的代码给StackOverflow泼水,错误答案满天飞时,后者连夜下达了官方封禁令。虽然ChatGPT写代码的能力被很多人诟病,但其实还是可以用的。其实ChatGPT最合适的定位应该是编码辅助。在ChatGPT的发布者OpenAI看来,ChatGPT的重要用途之一就是帮助程序员检查代码。对于开发人员来说,它只是不断增长的工具面板中的一个工具。而且,与任何自学模型一样,ChatGPT会随着时间的推移学习、自我纠正和改进。很多时候,与其在StackOverFlow上等上几天问一个相对简单的问题(如何在Flutter中触发一个HookConsumerWidget的重建),不如直接在ChatGPT上问。因为在ChatGPT上,开发者有很大概率得到一个可以用来解决问题的起点——