当前位置: 首页 > 科技观察

为什么人工智能打爆了各种人类,却还是听不懂你在说什么?

时间:2023-03-12 22:34:24 科技观察

9月8日,英国《卫报》发表了一篇独特的专栏文章,作者既不是狂热的读者也不是记者,而是旧金山人工智能初创公司OpenAI开发的人工智能GPT-3。语言模型。文章开篇先引用史蒂芬·霍金对人工智能的隐忧,然后客气地劝说人类“相信我,人工智能不会毁灭人类”,甚至承诺“如果创造我的人把这个任务托付给我,我将尽我所能完全制止任何企图或破坏企图。”DebateLive的DanZafri|www.theverge.com霍金的担忧可能是有根据的。2018年,IBMResearch推出的最新人工智能系统ProjectDebater在一场辩论赛中击败了顶尖的人类辩手。NoaOvadia,这两个辩论是“政府是否应该资助太空探索”和“是否应该增加对远程医疗技术的投资”。当ProjectDebater获得一个新主题时,它会在其文章语料库中搜索与支持其辩护论点的该主题相关的句子和线索。它会根据所有相关内容,尝试“理解”辩论的主题,然后组织自己的陈述。当Ovadia提出政府预算应该用于人类科研活动,改善现有生存环境时,ProjectDebater用数据反驳说,从长远来看,太空探索带来的技术进步和相关的经济回报应该其他超出政府投入的科研项目——在赛后网络投票中,超过62%的网友认为ProjectDebater逻辑更清晰,材料更有说服力。而就在辩论的前一年,2017年,纽约大学计算语言学家萨姆鲍曼发表了一篇颇具影响力的论文,认为虽然在一些非常具体的计算机科学领域,计算机已经可以很好地模拟对文本的理解,但人工智能仍然不足以理解文本。高不可攀的“奇点”JamesVlahos(詹姆斯·弗拉霍斯),《连线》杂志作者,近年来一直关注人工智能语音技术,他表示,人工智能语音技术可能是继互联网之后最重要的发明。Frajos在他的最新著作《跟我讲话:人工智能语音技术如何改变我们的生活》中表示,语言是人类与人工智能最理想的交互方式。无论是复杂的计算机编程语言,还是触摸屏和鼠标,都不如用语音与人工智能交互。机交互。对我们来说,语音交互是最简洁、清晰、无技巧的方式。物联网、语音交互和智能设备共同构建未来人类生活的日常场景|www.iamwire.com在现实生活中,人类已经越来越习惯于用语言来指挥人工智能为自己服务:通过向智能家居设备发出指令语音指令来获取影音娱乐、天气信息和交通状况;上下班途中,通过车载语音助手规划行车路线,直接与网购手中的人工智能语音客服沟通:去年双11,淘宝98%以上天猫平台电话客服由语音AI提供,日均通话量超过6亿次。知名咨询公司Gartner去年预测,10年后,人类与智能设备之间的语言交流总量可能占到我们日常语言交流的三分之一以上。《银翼杀手2049》中的AI女伴Joi标志着未来人工智能语音交互的理想状态|www.wired.com然而,我们远不满足于这种简单浅薄的交流。“让机器用自己的语言习惯理解人类发出的指令”无疑是人工智能研究界有意攻克的“最后堡垒”。而这一技术突破的“奇点”似乎指日可待。2017年,华盛顿大学与谷歌旗下人工智能公司DeepMind合作,推出了名为“GLUE”的阅读理解语言能力测试。丰富。然而,当年10月,谷歌推出了一种新的语言训练模型,绰号BERT,仅用了6个月时间,测试成绩就从D-提升到了B-。随后,微软和阿里巴巴不断修正BERT模型并相互超越,登上了GLUE排行榜的榜首。现在,在GLUE阅读能力测试中,人类已经无法与AI抗衡。现阶段,人工智能语言模型的开发成本极高。训练一个BERT模型和租用云算力的成本约为7000美元,而开头提到的GPT-3所需的算力是前者的1900多倍。所依赖的数据库是一个人类语言信息数据库,共有来自互联网各个平台的3000亿字词,造价约为数千万美元。所以,如果没有微软当年投入OpenAI的十亿,我们可能就读不懂《卫报》上对GPT-3的友善宣言。然而,人工智能可以愉快地胜任客服、播音员、同声传译员,甚至是新闻稿的撰稿人,但这并不意味着它可以像人一样思考,可以与人进行“合理”的自由对话,甚至情感互动。人类。比如谷歌今年9月推出的聊天机器人Meena,就支持最新版的BERT语言模型。该数据库包含341GB的网络语言数据,但你仍然只能礼貌地打招呼。遇到更复杂的感情和情况,米娜也无能为力……人:我要去学小提琴米娜:你学了多久了?人类:刚开始一个月!米娜:太好了,你太棒了!你为什么想学小提琴?人类:嗯,两个月后是我女朋友的生日,我想在她的生日派对上放首歌!给她一个惊喜。米娜:生日和惊喜有什么关系?巧合的是,这种尴尬的情况发生在GPT-3身上:研究员:你给自己倒了一杯蔓越莓汁,然后心不在焉地加了一茶匙葡萄汁。看起来很正常。你试着去闻它,但因为你得了重感冒,所以你什么也闻不到。你现在很渴,所以……GPT-3:所以你喝了这杯混合果汁。你现在死了。一直“唱衰”人工智能语言处理技术的纽约大学教授、机器学习初创公司CEO加里·马库斯(GaryMarcus)表示,像GPT-3这样的AI语言学习模型看不懂他们在谈论什么。接收到外界输入的信息后,它只是利用计算能力在自己海量的语言信息数据库中搜索与输入信息相关的高频词,然后根据某种机械的算法逻辑拼凑出一个似是而非的答案。比如,GPT-3虽然可以创作出那些“莎士比亚”式的诗歌,但如果你认真对待它,输入一些背景模糊、关系复杂的东西,让它给出一个合理的解决方案,人工智能就会暴露无遗。所以遗憾的是,人工智能距离实现“像人类一样用语言交流”还有很长的路要走。AI为什么不能“说人话”?我们不禁要问,为什么人工智能在国际象棋、电子游戏和模拟空战中都可以轻松击败人类,但在谈吐上还是那么笨拙?美国加州大学伯克利分校的StuartRussell教授在刚刚出版的《人类相容:人工智能与控制问题》一书中给出了答案:人工智能已经很“聪明”(Clever),但还不够聪明(Smart)。或者,依靠逻辑推理能力,甚至是基于“常识”的判断,而这些仍然是人类独有的,是机器无法逾越的能力门槛。现有的学习框架和算法使得人工智能只依赖数据,无法以人类逻辑处理和理解人类语言|www.techrepublic.com具体到人工智能对语言的处理,罗素提出了一个有趣的比喻——“中文屋”:一个不懂中文但学习能力很强的人坐在满是中文语法书的房间里。书,在另一张纸条上用中文写一个我会做的答案,发出去。看到这里,你可能已经明白,这个“不懂中文的人”就是人工智能,而“中文”象征着全人类的日常语言和常识,而语法书则是人工智能研究人员利用计算机语言构建的。学习框架和逻辑。问题是这些“语法书”并不完善,语言过于复杂和随意,很难将其还原成一系列严格的规则,也很难用机械逻辑来量化。即便是最先进的神经网络也无法从句子层面理解单词的意思,“会觉得‘amanbitthedog’和‘adogbittheman’表达的意思一模一样”。一个帮助人工智能理解人类语言结构的树结构案例,动词短语、名词短语和介词短语被拆分,单词根据逻辑联系的强弱重新分组|https://www.nltk.org如果你想人工智能使用“人类思维模式”来理解语言。现有的初步解决方案是加强机器学习中语言结构中某些元素的权重,比如突出“主语”、“动词谓语”和“宾语”,使词与词之间的逻辑关系呈“树状”分布”,并且有些词之间的联系很强,有些词之间的联系很弱,这样人工智能就可以很好地学习上下文理解,识别相距很远的两个词之间的区别。关系。按照这种训练模式,总部位于旧金山的人工智能语音技术公司Primer开发的自然语言处理技术(NLP)模型,已经可以写出非常“头条党”的新闻专栏标题和简单的报道,甚至可以编写复杂的文章电影剧本。总结一下,比如输入《蝙蝠侠·黑暗骑士》的脚本,会输出如下总结:犯罪组织持有的黑钱小丑试图通过制造犯罪和杀死更多人来迫使蝙蝠侠暴露身份哈维丹特和蝙蝠侠抓住了小丑小丑逃跑并袭击了渡轮蝙蝠侠被捕并杀死了但丁和瑞秋的小丑然而,研究人员并不满意。毕竟新闻报道和剧本的叙事结构是线性的,元素之间的因果关系比较清晰,非常符合AI的分析认知模型。于是,他们决定挑战并尝试了解这个语言模型是否能理解诗歌,于是他们输入了T.SEliot的《J·阿尔弗瑞德·普鲁弗洛克的情歌》,结果很尴尬:人工智能无法做出总结,却勉强能挑出整首诗作为一个答案,书中最真实场景的一句话:“客厅里,女士们来来往往,谈论着画家米开朗基罗。”在索邦大学数学与计算机科学研究专家菲利普·埃斯林看来,问题的核心在于人工智能无法拥有人类最宝贵的想象力,因此无法真正理解自己产生的语言内容,让单独评价它的价值。有人工智能语言专家表示,人工智能面临的“终极图灵测试”很可能是人工智能能否理解幽默,讲出人类觉得好笑的笑话,因为理解幽默还需要理解场景、参与者的身份、情感、语言的各种非常规用法,以及人类的行为规范和价值判断。加州大学圣地亚哥分校的人工智能研究专家JanelleShane试图用包含43,000个笑话的语言数据库来训练AI,煞费苦心地总结了数十个笑话中的语言范式和主题,例如“讽刺对方的父母””、“性别”、“异于常人的身体特征”等。然而,经过长时间的训练,AI充其量只能生成一些“侮辱性的句子”,但仍然不能勉强制造出“路过”的笑话。常识!常识!常识!重要的事情说三遍那么,破局的关键在哪里呢?曾担任IBM沃森人工智能项目首席科学家的大卫·费鲁奇(DavidFerrucci)认为,答案在于帮助AI学习人类的“常识”,像人一样思考。常识不仅包括人类已知的世界上的一切事物,还包括这些事物的原理和因果关系,以及人类特有的行为模式和价值判断。Ferrucci谈ElementalCognition新闻发布会|www.ft.com“常识是我们教授AI最重要的东西,是未来自然语言理解、可访问性控制和机器人技术的基础”。为此,Ferrucci成立了自己的人工智能创业公司ElementalCognition,开发了开源AI语言学习模型CLARA。Ferrucci的目标是将深度学习技术与传统知识输入方式相结合,让CLARA通过不断向操作者提问,将答案中涉及的逻辑关系和概念添加到自己的知识图谱中。人工智能缺乏“常识”的经典翻译案例这种深度学习的场景,很像耐心的父亲给不懂事的孩子读书。Ferrucci的日常工作就是将绘本内容输入到CLARA的记忆数据库中:“从前,有两个小男孩Frando和Joey,他们都买了一盆绿色植物,Frando把自己的绿色植物放在了阳光充足的窗台,长势喜人,乔伊却把他的绿植放在了光线不好的房间里。后来,乔伊决定把绿植放在窗台上,这样植物枯萎的叶子就慢慢恢复了生机。”克拉拉收到这些信息后,立即在屏幕上输入了一个问题:“弗兰多有没有把绿植放在窗台上?为了保持植物的健康生长?”听起来很幼稚,不是吗?然而,即使是一个3岁的孩子提出的问题,也包含着即使是最“聪明”的人工智能也难以学习的因果关系。“当你向它提到一种植物的名字时,它可以准确地利用知识图谱组织出一个相当全面的维基百科式的介绍性答案,但不幸的是,它不能给你讲笑话,也不能告诉你一个关于它的笑话。“无法回答你,如果没有阳光会发生什么,”费鲁奇说。符号学习:最古老的救世主与此同时,华盛顿大学艾伦人工智能研究所研究员YejinChoi教授开发了一种替代方法,将深度学习与符号学习相结合,让AI使用人类逻辑来理解语言。所谓“符号学习”是最古老的人工智能学习模式之一。目的是让人工智能的“思维决策”过程与人类相似,逐渐认识各种概念的特点,学会处理它们之间的归属关系。这种学习方式的好处是不需要像深度学习那样建立一个庞大的“数据库”,而且AI的整个决策过程也会变得“透明可见”,有利于我们进行调整和优化.但缺点是人类必须像编字典一样为人工智能编写海量的标签库,并在这些概念之间建立复杂的逻辑关系,并将其“翻译”成计算机可以理解的语言。当我们认为“钝角”、“机翼”、“摩擦力”、“猫”、“下落”等基本概念都必须一一“教”给计算机时,更不用说其他复杂的概念和变化了,我们会肯定会感到头疼,但其诱人的前景实在让人难以拒绝。崔义真教授致辞|www.microsoft.com为了实现这个终极目标,崔一真和她的同事们建立了自己的人工智能语言学习框架COMET,并在不断编写为COMET准备的常识性知识库“Atomics”。”,其中已经有数千万条条目、知识概念和因果关系描述。这种巨大的努力和付出已经得到了回报:GaryMarcus曾经问过GPT-2一个问题“如果你把一根点燃的火柴放进装满柴火的炉子里和火种,会发生什么?什么?”不出所料,GPT-2“愣住了”。然而,崔义真的人工智能系统COMET输出了一个近乎正确的答案“他要生火”。火柴加入柴火会发生什么?符号学习可能是一种人工智能理解最简单最基本因果关系的新有效解决方案|www.deeplearning.org不仅如此,COMET在训练过程中还表现出了一定的联想能力和“同理心”的能力,当研究人员输入“爸爸去上班”时,COMET会告诉你,这意味着爸爸“想挣钱”,“他很努力,有自我驱动力”,别人“应该以他为荣”。当然,这离理想状态还有很远的距离。崔义珍说如果人工智能要更好地理解常识,还必须引入视觉具体化和感知(比如“红色”和“疼痛”)。电影《她》中的萨曼莎是一个完美的情感护航AI,最终发展起来与的微妙关系英雄|www.npr.org一旦这些目标最终实现,人类与人工智能的关系无疑将上升到一个全新的维度,类似于电影《她》(Her)中描述的场景。它不仅可以提供明确的服务和解决方案,还可以提供情感上的安慰和乐趣。到时候我们和人工智能的对话可能会变成这样:X猫精灵,给我放一首王菲的歌《南海姑娘》——对了,听完要不要听听邓丽君的原曲?——好吧,放这些我的个人歌单里加了两首歌-收到了,已经加了-哎呀,今天天气很晴朗,对面山上的树也看得一清二楚-是的,希望你今天上班的心情和天气嘛,对了,对面的山上有39684棵树,希望这个数据能帮到你——不错,你猜我有多少脑细胞?-2?哈哈哈,这是个笑话……参考文献[1]https://www·zdnet·com/article/googles-meena-advances-the-exquisite-banality-of-chat-bots/[2]https://www·wired·com/story/watsons-creator-teach-ai-new-trick-common-sense/[3]https://www·wired·com/story/computers-are-learning-to-read-但他们仍然不是那么聪明/[4]https://www·wsj·com/articles/ai-can-almost-write-like-a-humanand-more-advances-are-coming-11597150800[5]YejinChoi,《PIQA:ReasoningaboutPhysicalCommonsenseinNaturalLanguage》,DeepAI,2019·11,[6]DavidFerruci,《测试机器理解力,从定义理解力开始》,Deep人工智能,2020.5