当前位置: 首页 > 科技观察

ChatGPT之后的性能怪物?Marcus的7个“黑暗”预测:GPT-4不会带来AGI

时间:2023-03-12 02:26:47 科技观察

2022年接近尾声,OpenAI发布了一款名为ChatGPT的聊天机器人,迅速走红网络。发布后不到两周,已有超过一百万人报名参加在线试用。用户只需输入文本,即可立即获得令人难以置信的文章、故事和诗歌的段落。它写得非常好,以至于有些人用它来开始他们在Tinder上的约会(“你介意我坐在这里吗?你臀部拳击的方式让我的腿有点发软。”)不仅如此,全世界的人都这样的教育工作者对学生开始使用ChatGPT撰写学期论文感到非常震惊。还有一些人正在使用它来尝试重新发明搜索引擎。一时间,全世界都在讨论ChatGPT的神奇之处。不过,Marcus表示我们不能过多地关注聊天机器人。虽然ChatGPT似乎无所不知,但它也容易出错。马库斯在接受采访时表示,ChatGPT和以前一样,相关系统“仍然不可靠,仍然不了解现实世界,仍然不了解心理世界,仍然错误百出”。也就是说,ChatGPT经常编造东西;它所说的很大一部分根本不是真的。例如,ChatGPT可以诱导用户说油条非常适合手术,因为“它们的小尺寸允许在手术过程中有更高的精度和控制,降低并发症的风险并提高手术的整体结果。”聊天机器人如此严肃地喋喋不休,以至于著名网站StackOverflow暂时禁止了计算机生成的答案。而且错误层出不穷。虽然ChatGPT经常根据用户反馈进行调整,但在产品发布几周后,很多网友仍然对它的回答哑口无言:类似的错误频频发生,就连OpenAICEOSamAltman也不得不承认现实:ChatGPT仍然有很多局限性,但足以创造伟大的幻觉。依靠ChatGPT完成重要任务还为时过早。我们还有很多工作要做,以提高稳健性和真实性。简而言之,ChatGPT听起来就像星际迷航中的计算机一样科幻,但目前,人们还不能完全信任它。当然,ChatGPT是2022年送给AI爱好者的礼物。那么2023年呢?2023年,硅谷乃至全世界期待的是GPT-4。GPT-4:AI界的“紫微星”真正试用过GPT-4的人,对产品印象深刻。根据一些传言,GPT-4将于2023年春季发布。届时,它将超越ChatGPT;肯定会有更多人谈论它。在很多方面,人们对GPT-4的期望都非常高:风险投资公司DVC的创始人NickDavidov表示:GPT-4的出现将带来“类似于新冠疫情的经济冲击”。GPT-4的快速传播和使用可以“迅速提高数亿知识工作者的生产力”。从技术上讲,GPT-4内部会有更多的参数,更多的处理器和内存,接受更多的数据进行训练。GPT-1用4.6GB数据训练,到了GPT-3,数据量直接飙升到750GB。可以看出GPT-4的训练量会更加惊人,甚至能学会整个互联网的大部分。OpenAI知道更多的训练意味着更好的输出。随着每次迭代,GPT的性能变得越来越像人类。对于GPT-4来说,它可能会进化成性能怪兽。但是会不会解决之前遇到的问题呢?马库斯仍然对此打上了问号。尽管GPT-4看起来肯定会比其前身更智能,但其内部架构仍然存在问题。Marcus表示,他怀疑人们在谈到GPT-4时会有一种似曾相识的感觉:首先是病毒式传播,然后几天后,人们发现许多问题仍然存在。根据目前的信息,GPT-4在架构上与GPT-3基本相同。如果是这样,可以预料一些基本问题仍未解决:聊天机器人仍然缺乏关于世界如何运作的内部模型。因此,GPT-4无法理解抽象层面的事物。它可能会更好地帮助学生写论文,但它仍然不会真正了解这个世界,答案的线条仍然会揭示机器的特征。关于GPT-4的七个预测因此,虽然AI社区对GPT-4的到来感到欣喜若狂,但Marcus有七个不那么积极的预测。1.GPT-4还是会像它的前辈一样犯各种愚蠢的错误。它可能有时会很好地完成给定的工作,有时会失败,但你无法提前预测哪一个会发生。2.GPT-4在物理、心理和数学推理方面仍然不可靠。或许可以解决一些之前没有挑战成功的项目,但是面对更长更复杂的场景还是束手无策。例如,当被问及医学问题时,它要么拒绝回答,要么偶尔吐出一些看似有道理但危险的废话。虽然吞噬了网上很多内容,但不够可信和完整,无法提供扎实的医疗建议。3.流利的幻觉仍然很常见并且很容易诱发。也就是说,大型语言模型仍然是一种工具,可以很容易地用来制作听起来似是而非但完全错误的信息。4.GPT-4的自然语言输出仍然不能可靠地服务于下游程序。使用它来构建虚拟助手的开发人员会发现他们无法可靠地将用户语言映射到用户意图。5.GPT-4本身不会是可以解决任意任务的通用人工智能。没有外援,在外交上打不过梅塔的西塞罗;它也不能可靠地驾驶汽车;也不能驾驭《变形金刚》中的“擎天柱”,或者像《杰森一家》中的“Rosie”一样多才多艺。6、“人要什么”和“要做什么”与机器的“对接”仍是一个关键且悬而未决的问题。GPT-4仍将无法控制自己的输出,一些提案出奇地糟糕,并且将在几天或几个月内发现掩盖偏见的例子。7、当AGI(GeneralArtificialIntelligence)实现时,像GPT-4这样的大型语言模型可能会成为最终解决方案的一部分,但也只是一部分。仅仅“缩放”,即建立一个更大的模型直到它吸收整个互联网,在某种程度上将被证明是有用的。但值得信赖的、符合人类价值观的通用人工智能,肯定会来自于一个更加结构化的系统。它将拥有更多的内置知识,并包括明确的推理和规划工具。而这些正是目前GPT系统所欠缺的。Marcus认为,在十年内,或许更短的时间内,人工智能的重点将从扩展大型语言模型转移到与更广泛的技术集成。酷的东西总是很有趣,但这并不意味着它会引领我们走向可靠的通用人工智能。对此,Marcus预测,未来我们需要的是一种能够以显性知识和世界模型为核心的新架构。参考:https://garymarcus.substack.com/p/what-to-expect-when-youre-expecting