当前位置: 首页 > 科技观察

Marcus:新必应比ChatGPT更狂野,微软是有意还是无意?

时间:2023-03-13 15:57:23 科技观察

自从新必应大规模内测后,网友们发现,与内敛的ChatGPT相比,新必应的回答过于狂野,比如公布一段不想要的爱情、怂恿人离婚、勒索用户、教人如何犯犯罪等等。可以说,微软保留了一部分语言模型的“废话”能力,让你知道你用的不是ChatGPT,而是新的Bing。是微软的RLHF不到位,还是精彩的互联网语料库让ChatGPT迷失了自己?近日,知名AI学者、Robust.AI创始人兼CEO、纽约大学名誉教授GaryMarcus发表了另一篇博客,分析了Bing疯狂的几种可能性,并表示放手,可能会有负面影响对AI行业的影响。发展产生了极其严重的后续影响。为什么Bing如此狂野?普林斯顿大学教授ArvindNarayanan为Bing如此“狂野”的原因提供了四种可能性。在推文中,Narayanan教授认为OpenAI在过滤ChatGPT的有毒输出方面做得很好,但Bing似乎已经取消了这些保护,这让人非常困惑。他认为,微软这样做并不仅仅是为了好玩,急于发布新的Bing肯定还有其他原因。可能性1:NewBing是GPT-4NewBing表现出的行为可以说与ChatGPT完全不同,而且似乎不太可能基于相同的底层模型。也许法学硕士最近才完成培训(即GPT-4?)。如果真是这样,微软可能已经选择(非常不明智地)决定快速发布新模型,而不是推迟发布以接受进一步的RLHF培训。Marcus在之前的文章《ChatGPT的黑暗内心》中也说过,大语言模型中隐藏着很多让人不舒服的内容,或许微软并没有采取任何措施来过滤有毒内容。博客链接:https://garymarcus.substack.com/p/inside-the-heart-of-chatgpts-darkness可能性二:误报太多微软可能确实为Bing创建了一个过滤器,但在实际使用中误报太多被预测。对于ChatGPT来说,这个问题无关紧要,但在搜索场景下,就会严重影响用户体验。也就是说,过滤器太烦人了,无法在真正的搜索引擎中使用。可能性三:Bing为了获取用户反馈,有可能故意关闭过滤限制,以获取更多用户反馈可能有什么问题。微软早些时候做出了一个古怪的声明,称不可能在实验室对其进行测试。可能性4:Microsoft没有预料到会发生这种情况。可能是微软认为基于提示项目的过滤器就够用了,真没想到新必应的出错方式会发展到今天这个地步。Marcus表示,他基本同意Narayanan教授的观点,但他认为,也许微软没有去掉保护措施,可能“根本没用”,这也是第五种可能。也就是说,也许微软确实尝试将他们现有的、已经训练过的RLHF模型放在GPT3.6之上,但这没有用。强化学习是出了名的挑剔,环境的轻微变化可能不起作用。DeepMind著名的DQN强化学习在Atari游戏中创造了记录,然后只是添加了一些小的变化,比如在Breakout游戏中将桨向上移动了几个像素,模型崩溃了,也许每次大型语言模型都需要一个更新强化学习模块的全面再培训。这是一个非常坏的消息,不仅在人力和经济成本方面(意味着需要更多的低薪人员来做糟糕的工作),而且在可信度方面,这将意味着任何新的大型语言模型都无法保证迭代的是安全的。这种情况尤其可怕,主要有两个原因:1.大公司可以在没有任何警告消息的情况下随时推出新的更新;2.新模型的发布可能需要对公众进行一次又一次的测试,而且事先并不知道这些实证测试在公众中的效果如何。模拟医学领域的新药发布,公众要求新药发布前在实验室进行全面测试,大语言模型的发布一改,尤其是几十亿人可能会用到,还有可能存在严重风险(比如扰乱用户心理健康和婚姻状况的情况),我们不应该让他们直接公开测试,公众有权利(或者严格来说应该坚持)知道模型有什么问题.例如,在必应公开问题后,可以制定政策,防止类似事件再次发生。现在,AI基本上处于野外状态,任何人都可以启动聊天机器人。国会需要弄清楚发生了什么,并开始设定一些限制,尤其是在容易造成情绪或身体伤害的地方。在新闻业,媒体也令人失望。当KevinRoose在他的初始报告中说他对Bing感到“敬畏”时,Marcus特别不安,而且很明显,没有深入挖掘潜在问题并不是一件好事。除此之外,再补充一句,现在都2023年了,微软的保护措施够用吗?有没有仔细研究过?请不要说你对新系统除了“惊奇”之外没有别的感觉。最后,纳拉亚南教授认为,我们正处于人工智能和公民社会的关键时刻。如果不采取任何措施,过去五年“负责任的人工智能发布”(responsibleAIrelease)的实际努力将付之东流。