让大家疯狂的网红AIChatGPT,缺点很明显?网上上传了一条“网友训练这个AI”的聊天记录。可以看出,AI最初是说27是质数。在网友质疑后,??AI依然坚称“27不能被3整除”。网友们不得不与AI“大战百回合”,最终在人类的不懈引导下,AI终于低头认错。△上图来源:微博@沙盘文章引用网友空间截图说一句,AI认错的态度很好。有围观者看完后调侃:AI不是要统治世界吗?怎么会输给一道简单的数学题呢?不过,也有不少人为ChatGPT发声:如此坦诚认错的态度,并不比某些人好多少。数学能力太顽固,具体是这样的:网友在与ChatGPT互动的过程中发现,这个AI的数学能力太低了,连27是不是素数这样简单的问题都可能出错——而且是stillKnowingthedefinitionofprimenumbers...所以网友请ChatGPT证明它给出的结论。没想到AI居然说27不能被3整除,网友表示很无语,又耐心的问了一遍,AI还是坚持说9是9.0。无奈,网友只能搬出代码,尝试用Python来教AI。结果,AI真的学会了!而他们也主动承认了刚才的错误。有意思的是,刚才我们也问了ChatGPT“27是不是质数”,发现已经改了。然后我们又拿了几个数字去问AI。结果这一轮,它正确判断了一个数是不是素数。但是仔细一看,AI??并没有提到35能被7整除,所以我们又问了一遍。可是鹅……这不是正经的废话吗?所以我们只好搬出Python来教它,但是这一次,连python好像都没能让AI认错...那么为什么这个AI会这么操心算术,又是为什么这么固执?其中一个重要原因是ChatGPT是基于OpenAI的GPT-3.5模型微调的大型语言模型。它擅长逻辑推理,但不能执行标准的计算机算法。而且与搜索引擎不同的是,它目前没有网页浏览功能,也不能调用在线计算器。此前,ChatGPT实际上已经向用户承认它不懂算术。两位数的乘法可能还好,但一到三位数的乘法,人们就直接退出了。我们也问了一遍,现在AI直接给了答案,但是错了。(正确答案是186524)另外,ChatGPT一般不会根据用户反馈修正自己的答案,但如果用户提供额外的信息,它有时可以辅助AI优化答案。所以,我们暂时还没有成功“教育”出AI,大概是运气不好吧……除了数学,它的用途很广。虽然ChatGPT有时会表现出“人工智障”的一面,但不得不说,大多数时候它的表现还是很出色的。例如,哥伦比亚大学教授兼谷歌工程师KennethGoodman分享说ChatGPT准备成为一名律师!在律师考试中,ChatGPT的正确率高达70%(35/50)。不仅仅是法律方面,古德曼还让ChatGPT参加了不同领域的各种考试,都取得了很高的成绩。包括美国医师执照考试(USMLE)在内,ChatGPT在去除图像选择题后也取得了70%的正确率。为了不让这些题目被包含在ChatGPT的训练数据中,Goodman还特意选取了2022年8月纽约州最新的化学注册考试:从图片中去掉5道选择题,ChatGPT的正确率为77.7%(35/45)。在同一批次的英语测试中,ChatGPT的正确率甚至达到了91.6%(22/24)。有网友已经开始预测,或许我们每个人都会拥有自己的律师AI,咨询律师的成本也会大大降低。接下来是医生AI、营养师AI……怎么样,你看好ChatGPT未来的应用吗?(或者你有什么让它学好数学的建议吗?)参考链接:[1]https://weibo.com/7095186006/Mj6LVF0zS#comment[2]https://twitter.com/TonyZador/status/1601316732689604608[3]https://twitter.com/pythonprimes/status/1601664776194912256
