AI的下一个机会在哪里?AI概念自1956年首次提出至今,已有60多年的历史。在相关理论和技术不断创新的今天,人工智能在数据、算力和算法“三要素”的支持下,越来越多地走进我们的日常生活。然而,这一系列惊喜的背后,是大多数AI在语言理解、视觉场景理解、决策分析等方面的难点:这些技术仍主要集中在感知层面,即用AI模拟人的听觉,视觉等感知能力,但不能解决推理、计划、联想、创造等复杂的认知智能任务。现在的人工智能缺乏信息进入“大脑”后的处理、理解和思考。它只是做比较简单的比较和识别,只停留在“感知”阶段而不是“认知”阶段。它主要基于感知智能技术,人工智能离人类智能还有很远的距离。究其原因,人工智能面临着制约其发展的瓶颈:大规模的常识性知识库和基于认知的逻辑推理。基于知识图谱、认知推理、逻辑表达的认知图谱被越来越多的国内外学者和行业领袖认为是“目前能够突破这一技术瓶颈的可行方案之一”。近日,清华大学计算机系教授、副主任、智浦·AI首席科学家唐杰在MEET2021智慧未来大会上发表了题为《认知图谱——人工智能的下一个瑰宝》的精彩演讲。清华大学计算机系教授、副主任、智浦首席科学家唐杰·AIMEET2021智能未来大会由量子位主办,大会邀请了唐杰、李开复、谭建荣、崔宝秋等人工智能学术界和产业界知名人士,围绕“重启”、“重塑”和“重构”三大主题,共话智能产业未来发展。唐教授在演讲中首先简要介绍了人工智能的三个时代:符号智能-感知智能-认知智能。现在需要探讨的问题是:计算机有认知吗?计算机可以推理吗?未来计算机会在意识上超越人类吗?唐教授表示,目前的认知AI还没有实现,我们急需做的是一些基础的东西(AIinfrastructure),比如知识图谱的构建,知识图谱的一些认知逻辑,包括cognitiveinfrastructure等..从1950年人工智能系统的诞生,到1970年计算机被人脑深度模仿,到1990年计算机科学家才意识到计算机是“参照”人脑而不是完全“模仿”。现在我们处在一个计算机革命的时代,我们应该更多地用计算机思维来做计算机思维,而不是人的思维。现在人们需要思考的是:如何用计算机的方式进行认知?唐教授提到可以结合两种方法来实现。第一个是从大数据的角度进行数据驱动,对所有数据进行建模,并学习数据之间的关系,学习数据的记忆模型;二是利用知识渠道构建知识图谱。然而,这两方面还远远不够。唐教授指出:对于真正的通用人工智能,我们希望它具有不断学习的能力,能够从已有的事实和反馈中学习新的东西,能够完成一些更复杂的任务。唐教授从人类的认知和意识中提炼出9条认知AI标准: 1。适应和学习能力 2.定义和语境化能力 3.自系统标准输入能力 4。优先级和访问控制能力 5。召集与控制能力 6.决策力和执行力 7.错误检测和编辑能力 8.反思与自我监控能力 9.组织性和灵活性之间的能力 基于这9个标准,提出了认知地图的新概念,包括三个核心:1.常识地图。例如高精度知识图谱的构建、领域系统的应用系统、超大规模城市知识图谱的构建、基于知识图谱的搜索与推荐等。 2.逻辑生成。与计算模型相关,需要超大规模的预训练模型,并且能够自动生成内容。 3.认知推理。即让计算机具备逻辑推理和思考能力,像人一样思考。 唐教授表示,知识图谱+深度学习+认知心理学,打造知识驱动的框架和认知推理,将是未来重要的研究方向。目前,该项目的关键技术已在北京智浦华章科技有限公司(简称智浦·AI)进行转化孵化,形成了多项核心产品。家居企事业单位已部署100多套智能云服务系统,应用前景极为广阔。清华大学唐杰教授:认知图谱是人工智能的下一个宝库。这家AI明星创业公司致力于打造可解释、健壮、安全可靠、具备推理能力的新一代认知引擎,用AI赋能科技创新。依托清华大学团队十余年的知识智能积累和人才优势,智浦?AI现已构建出高质量的大规模知识图谱,研发出深度隐式关联挖掘算法和认知图谱等核心关键技术,并拥有完全自主知识产权,服务于政府部门、企业和科研机构。在2020中国人工智能年度大奖中,智浦AI还获得了十佳AI明星创业公司和十佳最佳解决方案两项大奖。以下为唐教授发言实录(略有删节):非常感谢大会的邀请,有机会来到这里与大家分享我们近期的一些研究成果。为什么叫认知地图?首先,让我们看一下人工智能的发展。从最早的符号智能,到后来的感知智能,再到最近,大家都在讲认知智能。我们现在要讨论计算机有没有认知,计算机能不能做认知,计算机能不能推理,甚至未来计算机会不会有意识,能不能超越人类。人工智能的发展经历了三波浪潮。我们把人工智能称为三个时代,三个时代就是符号AI、感知AI、认知AI。认知人工智能目前还没有实现,我们正在路上。现在最迫切的需求是什么?就是一些基础的东西,比如里面的认知地图怎么构建,里面的一些认知逻辑,包括认知基础设施怎么构建,这是我们特别想做的事情。在做这件事之前,我们先回顾一下机器学习。说到机器学习,很多人立马说,我知道机器学习有很多分类模型,比如决策树。这里最左边列出了分类模型、序列模型和概率图模型,再往右一点就是最大化边界。还有深度学习,再往下就是智能的循环,再往右就是强化学习,深度强化学习,最近我们都提到了更多的无监督学习,它是机器学习的一个齿轮。那么,机器学习离我们的认知还有多远?我们要看看这个认知和人的思维,包括人的认知是怎么回事。清华大学唐杰教授:认知图谱是人工智能的下一个宝藏。于是,看了很多诺贝尔奖和图灵奖获得者的资料,大致整理出了这么一页PPT。下面是人类的思维,所有的模型都是在人类的思维中得到的,上面是计算机图灵奖认知相关的信息。在1900年代早期,有神经系统的结构。后来1932年左右有了神经元突触的诺贝尔奖,然后60年代有了神经末梢传递机制,1975年左右有了视觉系统,20年前才有嗅觉系统。我们花了几年时间才知道大脑是如何定位和导航的,以及大脑的机制是什么。这就是诺贝尔奖。我们来看看计算机是怎么思考的,也就是机器思维。人工智能系统是在1950年左右创造出来的,但是在1970年左右大家开始想尽办法模??仿人脑。我们想制造一台与人脑非常相似的计算机。但是1990年左右,计算机科学家突然发现,我们不需要模仿,我们应该更多的参考人脑,参考大脑系统,做一台可以做更多机器思考和机器思考的计算机。所以我们所处的这个时代,可以说是一场计算机革命的转型。我们更多的是用计算机思维来做计算和计算机思维,而不是人的思维。最后,我们有概率图形模型、概率和因果推理以及最近的深度学习。当然有人会说,到头来你还是在说机器学习和一个模型。这离我们真实的太远了吗?再举一个例子,OpenAI。我们要建立通用的人工智能,让计算机系统甚至超越人类。前些年连我自己都不信。我认为很难实现通用人工智能。OpenAI做了几个场景,在限制场景下打败了人类,比如游戏环境。以上案例甚至还开放了一些强化学习的框架,让大家可以在框架中进行编程。以下是近年来最令人震惊的。两年前OpenAI做了GPT,很简单,大家都以为是语言模型,什么都没做;去年做的GPT-2,此时做的参数模型没那么大,十亿参数模型的效果,估计很多人都玩过,有个demo叫talktotransformer,就是talkto翻译器,你可以输入任何文字,转换器会帮你补全文字。但在今年6月,OpenAI发布了一个GPT-3。这个模型的参数规模一下子达到了1750亿,接近人类神经元的数量。这时,它给了我们一个令人震惊的结果。计算机的参数模型,至少其表达能力接近于人类。效果可能没有那么好,但它的表达能力已经接近人类了。也就是说,在一些理论证明下,如果我们能够让计算机的参数足够好、够用,它或许可以匹敌人类的智商表现。几乎。这时,又给了我们一个启示。我们能否通过计算机的结果,即计算方法,直接获得超越人类的通用人工智能?我们来看一下,这是这几年整个模型发展的结果。几乎每年,参数的规模都会增加10倍左右。右图显示了近几年自然语言处理的快速变化,几乎是指数级的变化。可以看出,这几年的变化还是比较小的。凭借GPT-3,谷歌已经达到了6000亿的产出规模,明年可能会达到万亿级别。所以这是一个非常快速的增长。现在再给我们一个问题,我们能不能用这种大规模的、大规模的计算方式、大规模的计算方式来实现真正的人工智能呢?这是个问题。当然,另一方面,你可以看到还有一个痛点。看看所有训练的结果。如果用单卡训练GPT-3,需要355年,整个训练成本将达到数亿人民币。普通公司也做不起来。现在还有一个问题,即使是美团这样的大公司做这个模型,大家能用吗?够了吗?这是一个例子,左边是模型,右边是结果。首先是长颈鹿有几只眼睛?GPT-3说它有两只眼睛,没问题。第二,我的脚有几只眼睛?原来还有两只眼睛,这是不对的。第三个是蜘蛛有几只眼睛?8只眼睛。第四太阳有几只眼睛?眼睛。最后一个呢,一片草有多少只眼睛?眼睛。可以看出GPT-3非常聪明,可以生成所有的结果。这个结果是生成的,自动生成的,但是它有致命的弱点,它其实是没有常识的。我们需要常识性的知识图谱。2012年,谷歌发布了KnowledgeGraph,也就是知识图谱。当时的想法是,我们能不能用大量的数据建立一个图呢?所以在以后的搜索中,我们会对搜索结果进行自动结构化,并反馈自动结构化的数据。知识图谱不仅可以包含搜索引擎,另一方面可以为我们的计算带来一些常识性知识。这个方法对我们以后的计算有帮助吗?这给我们带来了另一个问题。其实,知识图谱在很多年前就已经开发出来了。它从第一代人工智能即符号人工智能开始就开始工作。当时定义了知识图谱,定义了符号AI的逻辑表示。在20世纪70年代,它被称为知识工程,但为什么知识图谱还没有大规模发展呢?首先,建设成本非常高。如果要精准搭建,人工成本是非常高的。你可以看到CYC是在1990年代开发的。定义知识断言的成本是ABC三元组。A是主语,B是关系,C是接受者。比如人有手,人是主体,有关系,手是受体,就是这么简单的问题,当时的成本是5.7美元。另一个项目是用网上完全自动的方法生成的,错误率提高了10倍。这两个项目基本处于半停滞状态。那我们该怎么办呢?我们现在在想,从计算的角度来看认知应该怎么做?如果还是用计算来做认知,那怎么实现呢?如果把刚才的两个东西结合起来,应该会有这样一个模型。首先,从大数据的角度,要数据驱动,我们用深度学习的方法,对所有的数据进行建模,学习数据之间的关系,学习数据的记忆模型。第二,要用知识来驱动,构建知识图谱,用知识来驱动整个事情。我们将两者结合起来,这可能是我们解决未来认知人工智能的关键。够了吗?答案是不够的。未来,我们需要建立一个真正超越原有和现有模型的认知模型。这样的认知模型首先要超越像GPT-3这样的预设模型。我们需要一个全新的框架和一个全新的目标函数。只有这样我们才能超越这样一个预训练好的模型,否则我们就跟着。举几个例子,这是我们最近尝试做的事情。这两个,你认为哪个是人类制造的?哪一个是机器做的?事实上,这两者都是由机器制造的。这是我的学生做的,供大家娱乐。其实下面的结果都不太正确,内容也不对。上面的结果也是完全由机器生成的。但是如果从逻辑上看,基本上是可行的。我们现在要做的是让机器有一定的创造能力。文字是不够的。我们希望创造真实的画??面。它是创造,而不是查询。这是一段文字。我们希望通过这篇文字,可以将原来的原图自动生成成新的图像。此图像生成。我们希望这台机器有创造的能力。当然,光有创造是不够的。我们离真正的通用人工智能还有多远?我们希望真正的通用人工智能能够具备不断学习的能力,能够从已有的事实和反馈中学习新的东西,能够完成一些更复杂的任务。这时候,一个问题就产生了,什么是认知?只是让可持续学习成为认知?如果是这样的话,GPT-3也有这个学习能力,知识图谱也有学习的能力,因为它是不断更新的。如果能完成一些复杂的任务,就是认知吗?不,我们的一些系统已经可以完成非常复杂的问题。什么是认知?所以我们最近通过一些思考定义了认知人工智能的九个原则。这九个原理就是我从人的认知和意识中抽象出来的九个原理。第一个叫适应能力和学习能力。当机器处于特定环境中时,比如我们今天的MEET会议,机器人会自动学习。它可以知道在这个模型下这个场景我们应该做什么。事情。第二个称为定义和上下文能力。这个模型可以感知这个环境中的上下文,可以做这样的环境感知。三是自身系统的接入能力。我们描述的是这个机器可以定制什么是我什么不是,这叫人性化设计。如果这个机器能够知道它的个性是什么,那么我们就认为它具有一定的认知能力。第四,优先级和访问控制能力,在某些特定场景下具有选择的能力。我们都可以选择在双十一购物。如果机器可以选择今天双十一我想买东西,明天后悔,我就不应该买。这时机器有一定的优先级和访问控制权。第五,召集和控制能力。这台机器应该有计算和决策的能力。第六,决策和执行能力,机器人在感知到所有数据后可以做出决策。第七,错误检测和编辑能力,这个很重要。人类的很多知识其实都是通过反复试验发现的。比如我们现在学习的很多知识,我们不知道什么知识是最好的。别试错了,也许我们今天学的1+1等于2很好,但是你试试1+1等于3,1+1等于0,行吗?试了之后,发现不对。这称为错误检测和编辑。机器具备这种能力是非常重要的。第八,反省??、自我控制、自我监督。如果机器人和你聊了很久,说“对不起,我昨天跟你说的一句话有误,今天改正了”。这时候机器是反射性的。最后,机器必须是有组织的和合理的。我们将这些称为认知人工智能的九大原则。在九大原则的基础上,我们提出了一个全新的认知地图概念。常识地图具有三个核心要素。第一,常识图谱,比如高精度知识图谱的构建,领域知识图谱的应用体系,超大规模知识图谱的构建,基于知识图谱的搜索和推荐,都是传统的东西。第二,它和我们的计算模型非常相关,我们称之为逻辑生成。这时候就需要一个超大规模的预训练模型,它可以自动生成内容。同时,我们未来可以构建一个数字人系统,可以自动包含在系统中,可以生成相关的东西,可以像人一样做一个数字人。第三,需要认知推理,需要认知推理能力,计算机才能推理,具有逻辑能力。说起来有点废话,但你可能会问什么是推理逻辑?人的认知有两个系统,一个叫系统1,一个叫系统2,系统1就是计算机做的匹配。如果你说清华大学在哪,马上就会匹配到北京,但是你说清华大学在全球计算机中。它的排名在哪里?而为什么排在第一位呢?这时候就需要一些逻辑推理了。这时,电脑无法回答。这时候就需要逻辑推理了。我们需要考虑优势。当人们思考时,它被称为系统2,一个缓慢的系统,需要更复杂的逻辑思维。我们现在所有的深度学习都是在做System1,就是解决System1的问题,是直觉的认知,不是逻辑的认知。未来我们更多做的是System2,从脑科学的角度来说,跟我们现在做的有两个最大的区别。第一是记忆,第二是推理。记忆是通过海马体实现的,认知是通过额叶皮层实现的。这两个系统非常关键。如何实现?让我们看看内存模型。Badley内存模型分为三层。短期记忆是一个超大的大数据模型。在大数据模型中,我们如何将大数据模型中的一些信息变成长期记忆和我们的知识呢?,这就是内存模型所做的。当然,按理来说,要做的事情更多,那现在怎么办呢?认知图谱的核心就变成了我们需要知识图谱和深度学习。我们还需要结合一些认知和心理的东西来构建一个新的模型。所以,在最后一页,我们构建了这样一个框架。框架左边是查询接口,也就是输入,可以说是用户终端,中间是超大规模的预训练模型,内存模型,内存模型通过通过反复试验,蒸馏,将一些信息变成长期记忆,存入长期记忆模型中。长时记忆模型会做无意识检测,也会做很多自定义和调节逻辑,做一些认知推理。在此基础上,我们构建了一个平台,目标是创建一个由知识和认知推理两个轮子驱动的框架。底层是分布式存储和管理,中间是推理、决策和预测,最上层是提供各种API。唐杰教授介绍:唐杰,清华大学计算机系教授、副主任,获杰出青年奖、IEEEFellow。研究人工智能、认知映射、数据挖掘、社交网络和机器学习。发表论文300余篇,引用16000余次,获得ACMSIGKDDTest-of-TimeAward(十年最佳论文)。他主持开发了面向研究人员的社交网络挖矿系统AMiner,在全球220个国家/地区吸引了超过2000万用户。曾担任IEEET.onBigData、AIOPEN主编,WWW’21、CIKM’16、WSDM’15PCChair。获得北京市科技进步一等奖、人工智能学会一等奖、KDD突出贡献奖。
