就在昨天上午,OpenAI发布了多模态预训练大模型GPT-4。不是昨天醒来的时候,GPT-4快刷屏了,无论是在朋友圈还是在网上,都看到了很多资料和文章。GPT是GenerativePre-trainedTransformer的缩写,是生成式预训练变换模型的意思。OpenAI在公告中写道,GPT-4是一个多模态大模型,是OpenAI努力拓展深度学习的最新里程碑。OpenAI的CEO也表示,这是他们迄今为止最强大的模型。相信大家这两天在网上看了很多资料,也比较复杂。关于GPT-4,我们这里也总结了几个重点。1.支持视觉输入GPT-4具备多模态能力,现在可以接受图像输入并理解图像内容,这也是本次发布的一个吸引点。比如官方给了一个例子和一张图,如果手套掉了会怎么样?GPT-4可以理解并输出:它会落在棋盘上,球会弹起来。另一个例子是给GPT-4一张看起来很奇怪的充电器的图片,并问为什么这很荒谬?GPT-4回复,VGA线给iPhone充电。此外,GPT-4还可以对图片内容进行识别和分析。比如你直接把一篇论文的截图丢给GPT-4,它就可以自动理解分析。用户甚至可以直接画一个网站草图拍一张照片丢给GPT-4,可以立即帮助生成代码。2.文本输入限制的增强GPT-4的文本输入限制得到进一步改进。得益于此,GPT-4的实用性也得到了进一步的拓展。比如在发布会的直播中,OpenAI的总裁就演示了一波GPT-4来修复代码中的bug。用户可以直接将4D程序文件丢给GPT-4等待解决。3.性能提升在正常的对话过程中,GPT-3.5和GPT-4的差异感知可能很细微,但在处理一些复杂的输入时,GPT-4的优势会更加明显。该团队表示,GPT-4在各种专业测试和学术基准测试中的表现与人类处于同一水平。其中一项数据是它通过了mockbarexam,其成绩在考生中排名前10%,而此前发布的GPT-3.5,则处于后10%的行列。OpenAI还在为机器学习模型设计的传统基准上评估了GPT-4。从实验结果来看,GPT-4比现有的大规模语言模型,以及大多数SOTA模型都要好得多。4.仍有局限性。虽然此次发布的GPT-4已经展现出了强大的能力,但官方仍然表示GPT-4与早期的GPT模型有类似的局限性,并不绝对可靠。官方表示,在使用这些语言模型时,仍然需要仔细审查它们的输出内容,并在必要时使用符合特定用例需求的确切协议(例如人工审查、附加上下文或避免使用完全在高风险场景中)。GPT-4仍有可能出现幻觉,产生错误答案,出现推理错误,所以团队也提前打了疫苗。虽然这仍然是一个问题,但与之前的模型相比,GPT-4显着减少了“幻觉”。在内部对抗真实性评估中,GPT-4得分比最新的GPT-3.5高出40%。5.说了这么多使用,估计普通用户要用GPT-4还要再等一会。目前,只有ChatGPTPlus付费订阅会员可以试用GPT-4,试用期间每四小时最多可发送100条消息。并且目前用户仍只能发送纯文本信息,未来有望推出一些图像等视觉输入功能。目前OpenAI仅开放GPT-4API的应用通道。如果用户想要使用,可以先提交申请加入waitlist,等待审核通过。6、关于GPT-4论文关于GPT-4发布的细节和技术,官方也给出了pdf版的详细技术报告,感兴趣的朋友可以自行查看。总而言之,这两天看了太多关于GPT-4的资料,不知道为什么心里总有一种说不出来的感觉。不知道怎么形容这种感觉,想起之前发的一篇文章的评论区有朋友留言:“突然觉得自己向未来迈出了一步,这是怎么回事?”好了,今天的分享就到这里吧,下次再见。
