当前位置: 首页 > 科技观察

2021年后人工智能的一些思考?

时间:2023-03-12 05:47:29 科技观察

中国科学技术协会、中国科学院、中国工程院、浙江省人民政府、杭州市人民政府、浙江省人工智能发展专家委员会指导,中国人工智能学会主办由浙江省杭州市余杭区人民政府主办,杭州未来科技城管委会主办的2020全球人工智能技术大会在“数字之都”杭州成功举办。在25日举行的大会主旨报告环节,中国人工智能学会理事长、国务院参事、中国工程院院士、清华大学信息学院院长戴琼海,给我们带来了题为《关于人工智能的一些思考》的精彩演讲。中国人工智能学会理事长、国务院参事、中国工程院院士、清华大学信息学院院长戴琼海,与大家分享我对人工智能的一些思考,包括一些有问题的问题。从几千年前的原始社会开始,人们就依靠石器进行劳动;农耕时代人们使用的工具得到更新;工业革命中出现的蒸汽机进一步提高了生产力;电气革命极大地提高了人类生产。效率;现在信息时代电子计算机的诞生,扩展了我们的脑力,开阔了我们的视野和思维。马克思说,“各个经济时代的区别不在于生产什么,而在于如何生产,用什么劳动资料进行生产。劳动资料更能体现一个社会生产时代的决定性特征。”在信息时代,Internet网络、电子计算机、通信网络、空间技术、生物工程、原子能技术等一系列具有代表性的发明创造,特别是互联网和电子计算机的诞生,拓展了人类的边界和人与人之间的互动。现在人工智能时代已经到来,出现了深度神经网络和埃隆·马斯克等众多具有代表性的工业英雄,以及无人系统、纳米技术、量子计算、物联网等新技术和新产品。人们的工作、生活发生了翻天覆地的变化。跨学科研究是人工智能时代的典型标志。比如潘云和院士提到的认知视觉和认知表达,就是典型的交叉学科研究。人工智能技术海纳百川,如计算机视觉、自然语言理解、机器人和逻辑推理等,在医疗、电子、金融等行业发挥了巨大的作用。下面我将从三个层面简要分析人工智能时代的几个问题:第一是计算能力;二是算法;三是人类与AI如何相处?首先是计算能力。1956年,罗森布拉特的感知器只有512个计算单元,可以进行数据分类。然而,人工智能的发展一直受到计算能力的困扰,直到戈登·摩尔提出集成电路芯片上集成的晶体管数量每18个月翻一番,为之后几十年芯片技术的发展指明了方向。1999年,NVIDIA发布了用于并行数据处理的GPU,使人工智能向更广阔的领域发展。2012年,Alex使用AlexNet进行GPU加速,开启了深度网络应用的先河。接下来就是大家熟知的谷歌AlphaGo,它拥有5000个GPU,经过40天的训练就能在全球立于不败之地,可见并行计算和专用芯片对人工智能的推动作用巨大。让我们看看现有技术的发展。流媒体视频占全球互联网下行流量的58%。2019年8月,国内互联网终端数量已突破20亿。这些数据需要庞大的计算能力支持。现在智慧医疗、智能制造、无人驾驶都在追求更小、更快、更智能。因此,人工智能的蓬勃发展需要比其他方面更多的计算能力,成为人工智能的重要支撑。但是计算能力的增长速度不再遵循摩尔定律。从第一台计算机出现到之后的几十年,芯片的计算能力基本符合摩尔定律。然而,随着时间的推移,芯片上晶体管密度的增加不再遵循摩尔定律。反之,芯片算力的增长速度已经无法满足人工智能技术的发展需求。于是,国际科技巨头开始发力,比如谷歌的TPU和中国的地平线、寒武纪,都会为神经网络设计专用芯片,提高计算能力。但是,这些芯片都是专用的,不能满足通用人工智能的发展需要。我曾经说过,科学思维,工程实践。对身体有什么要求?比如量子力学和量子计算。众所周知,英特尔和谷歌已经发现量子计算在处理特定任务时比现在的计算机快得多。随着有效量子比特数的不断增加,他们(尤其是谷歌)希望成为量子计算的王者。但现实是,经过物理学家的分析,很多问题都没有解决,比如如何长时间保持足够多的量子比特的相干性,这是一个重要的问题;同时,进行足够的超高精度量子逻辑计算也是一个难题。因此,未来不可能完全利用量子计算来提高计算能力。因此,人们提出了存储计算一体化架构,希望能够突破存储墙的局限,提升其计算能力。这就是为什么我说人工智能时代进入了跨界时代。除了向物理学要算力,我们还需要脑科学的算力,比如Brain-likeProject,希望通过模拟脑科学中的机制来提高算力;不仅如此,我们还需要来自物理边界和光电计算的计算能力;我们还需要存储计算一体化、光电+的计算能力。下面将介绍光电计算的计算能力。普林斯顿大学教授对神经网络计算的框架做了理论分析。理论上估计可以将算力提升三个数量级,同时功耗降低六个数量级。功耗现在也是增加计算能力时需要考虑的重要问题。光电计算可以为这方面带来巨大的好处,计算能力提升三个数量级,功耗降低六个数量级。这方面的研究工作已经开始。光电计算并不是什么新鲜事物。和人工智能一样,它也诞生于1950年代。只有计算计算机半导体和硅基芯片满足了需求,因此研究人员逐渐减少了这方面的研究。特别是在1990年,贝尔实验室用砷化钾制作了光开关来控制计算机的原型机。由于当时对算力的需求不大,芯片就可以解决。现在,随着人工智能对芯片的极致要求,从2017年到2019年,很多机构在光电计算的研究上做出了重要的贡献,比如三维受控衍射的传播时间、速度的全并行计算等。的光。通过研究,可以快速识别一个字符,因为光不需要电,所以这种光学计算可以在可控的高维光场中传输,不需要功耗,从而实现高速高效的并行计算。因此,构建光电计算的体系结构成为解决计算能力的重要研究方向。作为一种新的计算方式,光学带来最重要的变化,一个是范式的变化;二是计算能力的提升;第三是功耗的降低。由于其诸多优点,国内外许多研究机构都开展了相关研究。目前国际贡献有3个。MIT做的干扰神经网络架构很好;明斯特大学和剑桥大学正在使用照片材料制作脉冲建筑;清华大学正在使用衍射神经网络架构。三种不同的方法各有优缺点。因此,未来可以在算力平衡上有所建树。你可以想象,光电计算的计算能力可以提供三个数量级。我们的超小型智能5G、智能机器人、微型维修机器人,特别是我们现在在研究的自动驾驶、光电智能驾驶,都会推动这方面的发展。因此,光电计算使无人系统更快、更小、更智能。目前,这个方向也引起了国际学术界和工业界的广泛兴趣。很多机构已经开展了这方面的研究,希望大家关注这个方向。光电智能芯片最重要的特点是什么?这是他们对巨大计算中心的小型化。我们目前的计算中心都消耗了大量的电能。如果我们使用光电计算,我们可以节省大量的电能。二是纳秒级目标感知和识别。纳秒级的感知和识别速度非常快。现在都是用相机拍的,需要先转换成电再计算。试想一下,如果在光线进入相机的时候直接计算,那么速度会变得非常快。因此,光电智能芯片在支持新基建中的工业互联网、计算机视觉、大数据分析和光通信等方面发挥着重要作用。这是一个讨论,一个算力的想法,还请大家多多批评。第二是算法。因为人工智能最重要的就是算法,所以研究人员一般都是在研究算法。那么这些算法从何而来?现有的人工智能只实现了简单的初级视觉感知功能。刚才潘院士讲到,还有很多无人区需要解决。在初级视觉感知信息处理和高级认知智能的过程中,性能远不如人脑,人脑具有物理学习和数据抽象的能力。有学者认为深度学习存在很大危机。BP算法有很大的局限性,需要推倒重来。有必要再次从大脑的认知机制模型中寻找灵感。从右图我们可以看出,难的问题容易解决,而简单的问题往往很难解决。Hinton的demo表明,现在深度网络陷入危机,需要借鉴神经系统的多模态数据表示、转换和学习规则、反馈方式。认知计算将推动人工智能的变革。大家一直在讨论人工智能最重要的问题是什么?现在怎样才能有效率?现在深度网络是不可解释的,那么如何让它可解释呢?现在不健壮了,怎么健壮呢?新一代认知智能是目前全球最重要的算法融合点。众所周知,1969年BP算法的原型来自于控制,是从最优控制理论中产生和收集的。直到1989年,卷积神经网络诞生。认知和神经科学家首次将BP算法引入多个神经网络,构建了认知计算模型。再到2015年的计算模型。可以看出,BP算法是深度学习中应用最广泛的算法,但它仍然存在很多问题。1981年诺贝尔奖获得者从1958年开始研究的受启发的卷积神经网络的角度发现了人类视觉是分层的,具有高级视觉层次,也发现了视觉系统的卷积特性。于是在1980年,日本学者提到了细胞的简单和复杂的概念,并提出了一种新的认知机制。DavidMarr认为,人类表征和视觉信息处理的计算研究得出了一个重要结论,即视觉和知觉效应之间的关系。2007年TomasoPoggio提出了H-MAX模型。Alex在2012年的贡献开启了人工智能的黄金时代,并得到广泛应用。这也是我们算法的历史。通过历史分析,可以预测未来。通过显示的内容,大家可以看出大部分是什么?它是关于脑科学家对神经的分析,对神经的分析是为了激发类脑计算。上面部分是整个神经学的分析,下面部分是实现一种类脑的思路,从脑科学到人工智能做类脑研究。近期,多家机构在研究上取得了突破。一个是石路平教授2019年的报告;另一位是2020年报到的吴华强,已经在类脑存储集成芯片的研究中发挥了重要作用。因此,中国在这方面的研究应该处于国际平行阶段。上图大脑的结果是神经元的激活状态,包括猫的视觉感知,以及大脑和身体的神经节,我们对此进行了大量的研究。我们对人工智能理论的计算做了一个对应和比较,即如何用脑机来启发人工智能的新理论,这实际上是新一代人工智能发展的重要途径。我们通过比较和比较来说明什么?很多人工智能专家借用了脑科学的一些机制来回应人工智能到底应该怎么往前走?这个算法应该怎么解呢?如何解决?成年人的脑细胞中有86到1000亿个神经元,当我们的电信号活跃时,我们感觉整体功耗很低,就在10到23瓦之间。如果你正在努力完成一件事情,你的最大功耗也在25瓦以内;如果发呆,最低功耗也只有10瓦左右。因此,耗电量很小,但人工智能计算机的耗电量却很大。刚才刘市长跟我说,杭州要建一个大的计算中心,这个时候耗电量应该会高很多。那么如何提供呢?从认知科学的角度来讨论这个问题,所以我们画了这样一座桥。如图所示,认知计算是脑科学与人工智能之间的桥梁。为什么?我们首先退一步问,认知科学是做什么的?认知科学是多模态回路观察,脑科学需要观察事物。二是多层次的认知模型,包括潘院士所说的视觉、听觉、语言、触觉。知道科学。我们认为,通过认知科学研究,从脑科学到人工智能,这是另外一条路,叫做从脑科学到人工智能。的路径。接下来,让我们回头看看一些经典的国际投稿。左边是脑科学的全部贡献。这里的主要贡献是什么?人类如何思考。右边是图灵奖。最重要的结论是,贡献是什么?机器如何思考?中间应该有一座桥,建立关系,把他们联系起来。所以我们希望认知科学成为那座桥梁。2016年,美国启动了耗资1亿的阿波罗计划,记录并测量了10万个神经元的活动和连接。这里最右边的图是上面的计算神经元模型和下面的计算机器学习模型。这两个模型可以用大脑数据建立分析吗?这是成像。通过研究脑计算范式,构建认知计算的新模型和新方法,从而架起人类思维向机器思维的桥梁,是启发新的人工智能理论和算法的重要途径。这是清华大学构建的方案,但是这个方案可能还不成熟,仅供大家参考。右下图是生物机制的记忆回路,我们有外部环境,大脑皮层和海马体。左下图是物理平衡原理,所以我们期望构建一个BMP网络算法,一个结合脑科学、数学和物理的网络模型。以上是我们构建的新型网络模型的总体框架。关于算法问题,我们还在做进一步的研究,希望能为高手提供解决方案。那么人工智能算法是否可以从知识驱动到脑科学,但什么是数据驱动呢?它是一个大型数据库,具有大场景和多个对象。建造了什么?三驾马车能不能认知驱动,这是一个新的算法,也是我们搭建的一个框架。这是算法层面的思考,希望大家批评指正。第三,人类与人工智能如何共存。众所周知,人工智能为人类赋能,并不是成为人类,更不会取代人类。图灵50年前就说过,发展人工智能不是把人变成机器,也不是把机器变成人,而是“研究和开发模拟、延伸和扩展人类智能的理论、方法和技术。“解决复杂问题和服务人类的技术和应用系统”。因此,为了人工智能与人类的和谐发展,需要考虑人工智能与人类之间的协同安全、隐私和公平等问题。最终实现以人为本,为人服务的目标。我们目前有一个孙富春老师和吴飞老师负责的项目,我们在做什么?未来人工智能安全教育及其与人类合作的研究。研究完成后,我们将与美国人工智能协会、欧洲人工智能协会讨论人类命运共同体的话题,这里最重要的是以人为本、服务人类这四个问题和不可避免的问题需要探讨。它们是道德、隐私、协作和安全。人和人类如何合作?人与机器人工智能之间必须有互动,人与自然之间也必须有互动。极端互动是什么意思?在危险场景中,我们希望与AI交互,AI与场景交互,AI与人交互,也就是我们看不到、看不清楚、听不到、摸不到的东西。我们称之为极端互动。人工智能交互实现颠覆性的用户体验,提升人类认知世界和改造世界的能力。这是极端互动的特点。在互动中,最重要的是什么?AI的外部形式是一个AI特定的接口。现在有很多汽车,多机器人,人形机器人,包括微软小冰,还有手术机器人,空中机器人,手机电脑等AI的通用接口,包括我们的。现在我们看到了虚拟主播和自动客服,那么我们接下来要讨论的是我们如何与人工智能交互,比如通过虚拟现实这样的界面。如图所示,虚拟/增强现实和自然交互技术是未来信息获取和交互的一种方式。它可以扩展人的能力,改变产品形态和服务模式,促进认知、智能、文化和艺术。改变,推动未来人-AI-物融合社会的发展。这就是我们所说的特征。我们现在在线上开会,很多组织都在发展线上和虚拟线下,如图《王牌特工》。这相当于一个极端的环境。我们像线下会议一样举行线上会议。我想这样的系统可能在2020年底就会出现。所以,这就是我们所说的沉浸式AI交互。我们研究过,今年中小学和大学的课程基本都在线上了。通过班级质量对比,北京几所学校的教学质量有所下降。我们只是采用了这种形式,但是这种形式并没有带来更好的教学效果。即便如此,未来改变这种教学效果,我认为会带来更好的用户体验。很多大学和公司都做了相关的研究,比如微软的108个摄像头的立体建模,Facebook的立体建模,谷歌和清华大学的立体建模。清华现在也在用相机做深度建模。建立一个人的模型后,可以放在任何地方,这样就可以实现虚拟离线。如您所见,全息智能教学可以通过这种方式实现。比如智能精准推荐、线上无处不在、真人全息教学、沉浸式互动课件等。根据今年的AI研发,最轻的AR眼镜可以达到50克。以前AR眼镜很重,无法开发。但是我觉得未来眼镜也是一个重要的趋势,虚拟线下的一个重要领域。未来,人工智能驱动的混合现实可以赋能教学、生产、设计和通信,包括工业设计。这是未来人工智能交互的重要工具,也是人与人工智能交互的重要方式。.未来已来。记得5年前李院士做过报告,说未来已来,就是让我们着急。未来脑机接口,人机融合,人机“共生永恒存在”,包括意识存储的概念,是可以永远存在于机器人身上,还是存储在一个地方。所以这是将来会发生的事情。现在脑机接口发展非常快。我们经常谈论脑部疾病,例如阿尔茨海默病和癫痫。如果发现这样的病理特征,我们有两种再生方法。如果知道神经元的类型,就可以用其他神经元修复这种生物修复方法来修复这些神经元;还有一种方法可以用我们的超材料代替这些神经元的活动。如果做得好,大脑可以保持高度的清晰度,人的寿命延长50年是很正常的。智能驱动未来。我们拥有更聪明的“大脑”、更灵巧的“手”、更明亮的“眼睛”、更灵敏的“耳朵”。智能光电芯片,知识驱动,数据驱动,认知驱动,这是智能驱动的大未来。由此可见,人工智能正在逐步达到人类的水平。从2016年的时间表开始,规划到2066年,所有的人工任务都被替代,机器AI可以完成。当然,这是我们的愿景,是有预见性的,有一些基本的讨论。我们说要做认知智能。什么是认知智能?之前有个图灵测试,你做的算法需要测试。有什么考试要求吗?所以我们从图灵测试开始,它测试机器是否可以表现出与人类相当或无法区分的智能。这是一个模拟游戏,所以我在最后一部分也谈到了测试。图灵测试一直在发展。可见,图灵测试是在1950年提出的,1986年的早期自然语言处理计算机也期待着这个测试。直到2014年,郭院士的“EugeneGoostman”程序首次“通过”了图灵测试。2015年,人工智能终于可以像人类一样学习,并通过图灵测试。但是这些测试呢?有什么可以改进的?以下专家专门从事图灵测试,测试机器对常识的推理能力,测试神经网络的抽象推理能力,以及对家庭医疗(ECW)等通用人工智能(AGI)的测试,都是人工智能测试的新模式,层出不穷。因此,图灵测试也是我国人工智能发展的一个重要方向。图灵测试中的认知测试是什么?我们要考虑这个问题,希望在座的各位能考虑一下。你在担心什么?认知测试和功能识别、认知决策和逻辑推理也是大家需要研究的重要课题。下面回顾一下,知识驱动、脑科学、数据驱动都是认知驱动。那么新一代的人工智能算法能不能做出来呢?出来是什么意思?可以进行认知测试吗?这就是我们所说的一个重要的目标课题,也是我们对人工智能发展的一些思考。事实上,人工智能产业变革的历史进程发展非常迅速。信息时代伴随着数字经济即人工智能时代的到来。在这里可以看到美国很多典型的人工智能公司,当然还有中国公司,包括字节跳动、地平线等,还有一些欧洲公司,所以人工智能已经成为全球经济发展的核心驱动力。人工智能也是一种新的基础设施,已经上升为非常重要的国家战略。过去几年,潘院士倡导的人工智能2.0受到了国家的高度重视。2020年,我国人工智能市场增速将远超全球市场增速。这是我们整个调研的结果,已经应用于智慧安防、医疗、金融、教育等领域,比如我们余杭区的智慧医疗小镇。新基建是一项非常重要的工作,刚才高省长和刘市长讲的,在这里面都有体现。2019年发表在Nature上的一篇文章聚焦中国在人工智能领域的领先发展。本实验室十余名师生调研了浙江省近10年来出台的44项人工智能相关政策。浙江看杭州,杭州看余杭。因此,杭州对于人工智能的创造有着无限的想象和无限的空间。也感谢杭州未来城对我们全球人工智能技术大会的支持。最后总结一下,今天其实跟大家分享了三个话题。第一个话题是共存,更高的工作效率,生活质量和安全保障,极端环境下的互动,什么是极端环境?比如在现场开会,我们在地理上相隔很远,但我希望我们能面对面交流,这是一个限度;二是算法,更接近于原有的认知计算理论和方法,也就是我们所说的重要算法。主题;三是算力,新的计算范式和芯片架构,性能提升数量级,这是最重要的。我希望未来可以在人工智能的三个方面发展,包括多维度、多角度、深入的认知测试。