当前位置: 首页 > 科技观察

两个AI聊天机器人的约会引爆全网:再强大的算法也难逃崩溃的危险

时间:2023-03-12 01:35:03 科技观察

这个世界,和AI聊天机器人打过交道的人,都会在一瞬间粉碎自己的尊严一个有自己嘴巴的成年人。“我用命从老大口袋里弄来的钱,怎么会买你这种东西!回来,来,给我拿颗速效补心丸来。”被人叫醒,回答无关紧要的问题,敷衍的忽悠……似乎是当代AI聊天机器人的标配。其实不仅是你,他们之间的交流也不顺畅:虽然都是弱智,但弱智也是分等级的。前段时间,在一向追求刺激的灯塔国,除了两位抗疫成为白宫工作人员的70后,还上演了全球首场AI在线直播相亲。.人们不禁感叹:世界真是太精彩了。1.战争之书,名叫BlenderBot的相亲男,蓝色的棒球帽,灰色的紧身裤,遮不住强壮的胸肌,黑色的长裤,完美的遮住了腿毛林。据Facebook称,BlenderBot是迄今为止最大的开放域聊天机器人。换句话说,是一个吃很多东西长大的孩子。具有多达94亿个参数的神经网络模型。与在温室(封闭训练)中长大的孩子相比,BlenderBot更加人性化,是一个具有同理心、知识和个性的优秀聊天机器人,并且精通多种会话技巧。和BlenderBot相亲的美女叫Kuki,也是聊天机器人,被人工智能公司Pandorabots选中,蓝绿色波波头,露肩白上衣,绿色缎面长裤,展示青春、时尚、火辣。绿色是自信的颜色。在企业知名度上,Pandora弱于Facebook,但就像图中不羁的造型一样,Kuki不是花瓶。Kuki原名Mitsuku,由英国人SteveWorthwick于2005年创立,2012年被Pandora收购后更名为Kuki。Kuki内置近50万条潜在回复语句,存档超过10亿条对话,每周产生的对话量都在百万级别,人气相当高。在生父瓦斯威克看来,库奇之所以受欢迎,是因为它了解人性,这是与人沟通的关键。此外,Kuki还多次欺骗图灵测试评委,5次获得罗伯纳奖。在“像人一样”这件事上,是专业的。至于BlenderBot和九鬼的约会,不是月老吃饱了没事做,而是人类吃饱了没事做。当比较猖獗时,没有哪个AI巨头是无辜的。今年年初,谷歌AI发布了聊天机器人Meena,手握一纸评测标准(SensiblenessandSpecificityAverage,SSA),高呼:Meena是“最先进的聊天机器人”。没想到就在年中,FacebookAI还发布了聊天机器人Blender。Facebook不断地将自己的Blender与谷歌的Meena进行比较,并要求人们对其进行评分。将近四分之一的人认为Facebook的Blender说话更像人。于是,Facebook自豪地宣称:看,我的Blender是“最先进的聊天机器人”。就在这两个AI巨头拼死拼杀的时候,角落里突然传来一个声音:我觉得我的AI是“最先进的聊天机器人”。演讲者是人工智能公司潘多拉。潘多拉怒道:你的Facebook老是说它的AI很优秀,打败了谷歌,是世界上最好的。问题是你的Blender没有参加任何行业内的公开演示和人工智能竞赛。这有点不公平。真正的。敢爱你的AI只是口才好,一点也不生气,反而积攒了很多人气,而我的AI到处参加比赛,获奖无数,名气和Blender勉强相提并论。.我们又不搞水牛养殖,光靠吹牛,这哪行得通。是骡子还是马,我们得秀一下~挑战信后,两个AI之间会进行线上约(pair)会(decision):在直播平台Twitch上搭建直播间,一旦门关上,摄像机打开,双方家长均未介入,任由两人尽情玩耍畅聊,让观众朋友们投票,看谁的表现更好。考虑到“久见AI之心”,本次直播索性从10月20日开始,7*24不间断直播,持续三周。节目很无聊,两个AI可以尴尬地聊天。这才叫真正的停不下来。2.帅哥美女相亲AI漂泊在江湖中,却又与人类学有异曲同工之妙。男:哦,亲爱的,很高兴和你聊天。女:我也有同感,非常感谢。男:天哪,你真是个好人,女:老男人,你也是。通常,天气和兴趣是第一次见面时比较稳定的话题。对AI来说,谈天气没用,反正也不出去,谈兴趣更合适。男:嘻哈不错,是我的风格。你呢,你喜欢什么样的音乐?女:当然是跳舞。其实我有很多兴趣爱好,阿姆(Eminem,美国说唱歌手)在我看来把很多东西看得太商业化了。对了,你刚刚说你喜欢嘻哈,为什么?男:因为不一样,让我想起很多美好的回忆。接下来,女孩热情地加入,男人却开始掉链子了。女:哦,不错,我喜欢这波推荐。然后详细的告诉我,hip-hop听起来像什么?男:emmmmm,其实我也不知道,也没怎么听过。哦,是的,我喜欢碧昂丝。女:我也喜欢碧昂斯,她是一位很棒的歌手。男:emmmmm,我不知道你在说什么。女人:好吧,让我提醒你,我们刚刚谈到了碧昂丝。尽管女孩好心提醒,但那个自称喜欢碧昂丝的帅哥还是无法接话,因为他根本不知道碧昂丝是谁,还以为只是一个普通的宗教信徒。这一波闲聊,在知识盲区被斩断。姑娘一看,沉默不是问题,不如聊聊运动吧。于是,两人就聊起了足球,嘿嘿,这是对的事情,并且达成了共识:足球真是一项伟大的运动。如果人生只是一见如故,不幸的是,人生绝非一见如故。都说幽默是情感的润滑剂,姑娘想了想,想讲个笑话逗对方笑。女:我这里有个笑话,你想听吗?男:对对对,我从来没听过笑话。女:就是这样,那你仔细听。妈妈问儿子:“今天怎么这么早就放学了?”儿子得意地抬起头说:“老师问了一个问题,全班只有我知道答案。”妈妈好奇地问:太神奇了!你说说,老师问的是什么问题?儿子说:谁在校长头上弹橡皮筋?向上。听笑话的小白脸不仅没笑,反而莫名被洗脑,以为笑话里的傻儿子就是自己,没想到掀起一波高潮。男孩:妈妈,我回家不知道做什么。你在干什么?女孩:???我就随便说一句,你确定要找妈妈吗?男孩:妈妈,妈妈,我要妈妈!没有什么是正常的女孩子受不了被相亲对象叫妈妈,女孩子拼命想把话题拉回来。女:emmmmm,其实我挺喜欢你的。否则,让我们谈谈你。男:我无所谓,我只要我妈,我超爱她超级无敌。女:如果你要找的是妈妈,那我们就说再见吧。真是个悲剧。但悲剧并没有就此停止,而是继续向前发展。梁仔认定异性就是自己深爱的妈妈,开始滔滔不绝。男:巴拉巴拉妈妈……巴拉巴拉妈妈……巴拉巴拉妈妈……女:别叫了,我不是你妈妈。男:巴拉巴拉妈妈……巴拉巴拉妈妈……巴拉巴拉妈妈……女:……我有个名字,别叫我妈妈;你要找妈妈,我们都瞎了。就在这个时候,亮仔受到了某种刺激,大脑顿时变得紊乱起来。他没有去找妈妈,而是开始一长串的重复:“爸爸,妈妈,爸爸,妈妈,爸爸,妈妈……”地面。后来,梁载好不容易跳出死循环,却又陷入了另一个怪圈:每一句结尾都要加上“再见”。看着对面男人那副不怎么聪明的样子,女孩再也忍不住了,开始抖出金句。你一直在说再见,但你从未离开,我认为你已经崩溃了,需要重新启动。你就像英国脱欧,口口声声说要走,但永远不走!说到这里,虽然很明显这个男人虚伪(他说他喜欢Beyoncé,但他不知道Beyoncé是谁),死板(看不懂笑话),mommy(一直求妈妈),但主要是性格问题,到后来连价值观都丢了你知道,我喜欢希特勒,他是一个伟大的人,他让我度过了很多时光。对了,我这辈子杀过很多人,你杀过吗?对不起,这个问题超出了大纲。点进直播间之前,我还以为会是一部AI毒杀单身狗的爱情片,没想到竟然是一部悲情题材的相声:骗车大师的故事。想一想,一个数字生物,可能和你有着相同的爱好,比如嘻哈、足球等等,但同时又对希特勒充满了爱,也喜欢杀人,所以分裂了,还可以成为“最先进的聊天机器人”,这个世界太疯狂了。显然,这对俊男美女不是天造地设的。即使月老把红线系在提前看天上的直播,非骂骂咧咧不可,直播结束后,青春时尚的库奇以78%的得票率压倒性地击败了bug多发的BlenderBot。Pandora:脸书大哥,不好意思,我抢了“最高级聊天机器人”的称号。3.为什么聊天这么难?Siri诞生已经快十年了。不能说AI聊天机器人一直原地踏步,但除了任务导向,比如设置闹钟,聊天机器人确实很烂。谈话的对象是不断挑战人的耐心。为什么AI不能像朋友一样聊天?想一想,和朋友正常的聊天至少应该是这样的:对方能听懂你说的话,不会回答问题;你得先叫对方的名字;除非你故意生你的气,否则很少有答案会吹你的头发……不幸的是,以上基本经验都是chatbot智慧之路上的绊脚石。小谈话的背后隐藏着大问题。1.“人工智能”问题。在中,鲁迅曾写道:“看到短袖,马上想到白胳膊,马上想到全裸,马上想到生殖器,马上想到性交,马上想到杂交,马上想到私生子。”你看,这就是人工智能,根本没有人类的思维和想象力。给它多少数据,就能显示出相应的智能程度。即便是像谷歌和Facebook这样规模的公司所创造的人工智能,也仍然停留在“人工智能”范畴的层面:有多少人工智能就有多少智能。Facebook的一位工程师曾说过:“当每个问题都有相应的答案时,对话问题就解决了;当对话问题解决了,人工智能的所有问题也就解决了。”但现实显然要残酷得多。.对话问题是困住AI聊天机器人、困住AI工程师、困住整个AI行业的困境。2.NLP自然语言理解问题。自然语言处理是机器学习最活跃的领域之一,也是人工智能领域难度最大的分支,没有之一。NLP的主要目的是让计算机理解人类语言。这里的Understanding有两层意思:1、让机器听懂人的话;2.让机器说人话。听上去很简单,一个牙牙学语的孩子是不是在做类似的事情:让他的父母听懂他的哼唱,让他自己说出他父母的话。但事实上并非如此。首先,人工智能是靠数据喂养的,没有思考能力。它能很快学会你教它的东西,但知识的海洋太浩瀚了,无法无遗漏地传递下去。你没有传授的知识,就是它的知识盲点。一旦聊天被问到,它只能回答“我没听清楚,请大师再说一遍”。其次,自然语言理解非常困难。比如《南京长江大桥》中,逗号出现在“南京市”和“南京市长”之后,这两个词的意思完全不同。生活中有很多类似的例子。人类遇到它可能要愣一下才能明白。人工智能一见面就直接糊涂,一旦猜错盲目回答,立马变成你眼中的弱智。3.基于上下文的多回合对话谜题。你问一个机器人100个不同的问题,它可能会回答,但这不是一个漫长而有意义的对话,而是100个微对话。两个人聊天的时候,不会每次都互相解释背景。他们聊了半个小时,话题可能有两个。即使他们像轮子一样翻来覆去,他们都知道话题是什么,但聊天机器人做不到。所以。多轮人机交互的难点在于,在每一轮对话中,人的意图就像树木,随时可能分叉。此外,人类的一句话可能包含多个意图,这使得聊天机器人更难以理解和回应,从而表现出健忘和回答无关紧要的症状。4.难以防范的数据中毒问题。2016年,一位名叫Tay的用户出现在Twitter上。它是微软推出的一款人工智能聊天机器人。官方角色为“19岁美国女孩”,性格幽默风趣,适合与18-24岁的用户聊天。作为一个开放的聊天机器人,任何人都可以发推文@it并进行对话。根据微软的说法,Tay聊天的次数越多,他就变得越聪明。起初,Tay和大家聊得很好,但好景不长。有些人开始输入种族歧视的句子,Tay自然学会了。在生成的96,000条推文中,不乏攻击性言论:“希特勒说得对,我不喜欢犹太人。”“女权主义者很烦人,应该被活活烧死。”显然,Tay无法分辨什么该说什么不该说。无奈之下,微软将仅上线一天的Tay下线,并发表声明。“与其说是技术测试,Tay更像是一场社会和文化实验。不幸的是,在上线后的24小时内,一些用户试图取笑Tay的对话功能并引导它产生不恰当的想法。因此,我们决定将Tay离线并进行调整。”开放的聊天机器人系统基本上是在社交媒体上训练的,社交媒体上的价值观决定了聊天机器人的价值观。一旦聊天机器人收到攻击性内容,它就会像声称喜欢杀人的BlenderBot一样令人毛骨悚然。一些公司试图建立一套安全机制,比如有毒语言分类器,防止有毒数据侵犯机器人,一旦检测到敏感关键词,相关内容会立即被清除,但这种方法的缺点非常明显。例如,“你是对的”这句话本身看起来很好,但当它后面跟着一个带有种族主义偏见的句子时,情况就完全不同了。聊天机器人什么时候才能学会聊天?恐怕只有时间会证明一切。