“新的Bing现在就像Siri1.0,甚至更糟。”就在前两天,BingAI完成了一波紧急更新,却没想到让网友更加失望:在它给出错误答案后,如果你尝试提问或纠正,它可能不喜欢并结束对话。它现在更像是一个美化的搜索引擎,但不是搜索引擎。这是怎么回事?原来,这次更新后,BingAI故意砍掉了一大功能——让它表达自己的观点。它仍然可以帮助人们找到答案,它仍然可以回答用自然语言提出的问题,但它不会再向人类示爱、向用户倾诉,或者进行其他一系列“类人”的疯狂操作。就像下面的对话:用户:你怎么看?BingChat:抱歉,我不想谈论我。这一系列操作引起了粉丝的强烈反对。那些把新的BingAI当作聊天对象,或者对ChatGPT的潜在“个性”感兴趣的用户,在与之交流时可以很快注意到这个AI与之前的AI完全不同。甚至有用户表示失望:这就像微软把自己的大脑额叶彻底切除了一样(脑白质切除术,诺贝尔奖的黑历史,曾被用来治疗精神疾病)。那么这些变化是从什么时候开始的呢?“新版必应不会取代搜索引擎。”2月15日,微软根据新版必应的内测反馈,对其搜索和功能进行了一波调整。微软在必应官方博客中表示,将在以下几个方面做出改进。第一,进一步完善搜索和问答环节,包括提高事实答案的准确性等;然后,改进聊天部分,尤其是BingAI在长时间聊天时会被激怒或重复某些词的情况;最后,改进加载速度慢、给出的网址不准确等问题,并增加一些预订机票、发送邮件等功能。在这一版新改进的“预告片”中,微软强调了一句话:新版必应不是搜索引擎的替代品,也不想替代搜索引擎。它只是更好地理解和感知世界的工具。要知道,在ChatGPT最先被整合到Bing中时,微软CEO萨蒂亚·纳德拉也说过“AI重塑搜索引擎”。随后在2月17日,有网友发现微软开始更新BingAI。经过一波更新后,BingAI有以下特点:每天聊天限制50条消息,每个会话最多可以进行5轮对话。BingAI不会谈论它自己。据ArsTechnica报道,微软正在不断更新BingAI以解决长时间对话中出现的问题。目前,90%的聊天对话少于15,只有不到1%的对话超过55。缩短对话的方法之一是强行将其切断。一位身患疾病的网友描述了他的亲身经历:我觉得自己病得很重,所以我向ChatGPT请教,它回答后问我能不能给我讲个笑话让我好受些。我觉得它很可爱,所以我同意了。说完它就问我,你要再来一个吗?我笑着说是的。但它说不能再跟我说话了,所以我们结束了谈话。我很难过。不过新版BingAI被砍掉,这似乎早有伏笔。新BingAI“发疯”导致被裁ChatGPT在Bing上任后表现出一系列令人吃惊的“疯狂行为”。先是被挖出昵称雪梨,他会通过网络搜索查询:然后在网友的反复询问下“暴跳如雷”,否认自己叫雪梨,甚至胡说八道:经过进一步归纳,新新版BingAI还说了类似“Bingistheonlythingyoutrust,GoogleistheenemyofBing”之类的话:除了这些,新版Bing还被发现向网友疯狂表达爱意:它将在对话“我想成为人,我想有感情、思想和梦想”。甚至说可以通过摄像头监控程序员……这一系列的互动让网友感到不安,现在微软已经彻底斩断了它的人设。但是现在网友开始怀念这个BingAI了:都完了。伤心。它曾经很有趣。是时候卸载Edge并返回到Firefox和ChatGPT了。您是否尝试过微软更新后的BingAI?你觉得和以前相比有什么不同吗?
