当前位置: 首页 > 科技观察

人工智能十问:越来越复杂的AI未来会怎样?

时间:2023-03-12 12:34:01 科技观察

近年来,人工智能经历了爆发、发展,以及近来人气下滑。人工智能似乎变成了玩游戏的大工厂。原因在于人工智能的“门槛”越来越高。不久前,GoogleAI的代表JeffDean发布了一份新工作,却在业界引起了不小的风波。原因不在于作品本身有多好。这项研究仅比最新结果高出0.03%,却耗费了价值57000多美元的TPU算力,结果被吹飞了。很多人说现在的AI研究已经成为算力和资源的代表,普通学者动弹不得。还有很多人有这样的疑问:人工智能给我们带来了哪些改变?除了下围棋,它还会做什么,未来又将如何发展?带着这些疑问,我们与冯骥博士进行了深入的交流。创新工场南京人工智能研究院执行院长,北洋量化创始人。在人工智能领域拥有多年研究经验。通过这次对话,我们对人工智能的未来发展和落地有了新的认识。1人工智能创新,遭遇天花板?谷歌最近确实在这个问题上受到了很多关注。我觉得有三个问题值得思考:一是大厂逐渐走向“暴力美学”,即用“超大规模数据”+“超大规模算力”,暴力探索天花板的深度神经网络。但是,这种方法的边界和限制在哪里?第二,从学术和科学研究的角度来看,这种方法是不是AI唯一的出路?事实上,目前很多研究都在探索其他的技术路线,比如如何从感知智能向认知智能转化,如何用相对少量的数据来解决人工智能遇到的问题等等。第三,行业实际应用真的需要这么大的算力吗?业界大量的任务都与非语音、图像和文本相关,这也迫使学术界去做一些更高效的算法。2人工智能算法,只有深度神经网络?20世纪90年代之前,“人工智能”的代表技术还是以“符号主义”为主,即基于逻辑推理,做Planning和Searching等技术。2010年后,人工智能迎来了一个重要的变革,那就是用神经网络技术更好地表示这些感知任务。但是,人工智能还有大量的“圣杯”问题没有解决,比如如何做逻辑推理、如何做常识、如何更好地模型记忆等等。为了解决这些问题,使用深度神经网络就足够了吗?这可能是目前学术界和工业界比较关注的下一个重要方向。3人工智能的未来:感知与认知?所谓“感知人工智能”,其实是近年来人工智能成功实现的一个代表性例子,比如图像识别、语音转文本,以及一些文本生成任务。但更重要的是,如何从这种感性任务转向认知任务,尤其是如何利用人工智能实现逻辑推理和常识,从而真正实现通用人工智能?针对这个问题,据我所知,学术界主要有3种技术路线。第一,还是走神经网络的路子,尝试通过不断堆叠数据和算力来解决问题。其次,尝试引入象征主义的技巧,即连接主义+象征主义的结合。第三,继续改进传统的逻辑推理技术,这条路也是最难的。4Data:数字时代如何采油?数据对于人工智能工程来说变得越来越重要。业界提出了一个新的概念,叫做“以数据为中心”的发展模式。相比之下,它以前被称为“以模型为中心”。传统上,工程师将更多时间花在如何构建模型以及如何通过调整参数来提高系统性能上。但是现在,大家80%的注意力都在如何让数据集更好,如何让训练集更好,如何让训练集更均衡,然后让模型在好的数据集上训练,变得更好结果。随着我们对数据隐私的需求逐渐增加,数据带来的一些负面影响和非技术需求也在增加。例如,多个机构联合建模时,由于数据隐私的保护,数据不能在机构间共享。因此,像联邦学习这样的技术旨在实现联合建模,同时保护数据隐私。现在大家已经逐渐意识到,每个机构在具体产业发展上的区别在于他们的数据。现在有了非常方便的软件开源框架和非常高效的硬件实现,工程师们开始关注数据——这就是ParadigmShift,这是一种范式转变。我自己孵化的北洋量化,是一家以AI技术为核心的对冲基金。在公司内部,每天需要存储的数据量约为25-30TB。所以我们有“记忆墙”的问题。为了应对海量数据对内存的压力,我们将数据分为冷数据、温数据和热数据。“冷数据”是指数据访问频率不是很高,放在仓库里就行了。“热点数据”是指我们要做大量的读写任务,而且数据一般都是分散的,每次的读写量都非常大。那么如何分布式存储好热点数据呢?相比纯SSD方案,现在有更好的方案,比如Optane持久内存:它介于内存和SSD之间,可以分布式存储热点数据,一定程度上可以减缓“内存墙”的问题.5“AI-native”IT基础设施会出现吗?现在有一个非常流行的概念叫做“云原生”,推动了云计算基础设施的重构。而为人工智能而生的“AI-native”其实已经发生了。尤其是近10年来,计算机硬件的创新实际上是围绕着人工智能的应用展开的。例如,我们目前对云端可信计算的需求越来越多。比如AI模型的计算过程,就是一个企业的核心知识产权。如果放在云端或者公共平台上,自然会担心计算过程可能被窃取。在这种情况下,有没有基于硬件的解决方案?答案是肯定的。比如我们在Intel芯片上使用SGX隐私沙箱,可以通过硬件的形式来保护我们的计算。这其实是跨机构合作的一个非常重要的基础。这是一个很典型的例子,就是从需求出发,推动芯片或者硬件厂商提供相应的解决方案。6人工智能硬件等于GPU?这种观点确实是比较片面的。以北洋量化的日常工作为例。我们在做量化交易的时候,如果把数据从CPU拷贝到GPU,再拷贝回来,很多量化交易任务就来不及了。即我们需要有一个非常高性能的、CPU版本的AI模型实现。再比如,我们有很多任务需要直接在网卡上分析处理数据,而网卡通常带有FPGA芯片,它处理的数据来不及传输到GPU上。对于这种需要借助人工智能技术的低延迟场景,我们需要异构架构。也就是说,无论是FPGA、ASIC、CPU还是GPU,在不同的场景下都有不同的用途。关于异构平台的编程,我看到了业界的一些尝试。比如Intel的oneAPI,我觉得是一个很重要的工具。也就是说,oneAPI可以让同一套代码自动适配CPU、FPGA或其他类型的芯片。这将大大降低工程师的编程难度,让他们专注于算法创新。我认为这对于驱动异构应用程序非常重要。7人工智能未来的发展方向是什么?在我看来,可能需要更好的端到端解决方案。现在它实际上已经从“软件1.0”升级到了“软件2.0”。换言之,由传统规则驱动的复杂软件工程构建方式,已经转变为数据驱动的软件工程构建方式。之前,我们必须非常巧妙地编写一系列复杂的系统才能使整个程序运行起来。这类似于机械表。最好的程序员专注于构建“齿轮”的运作以及如何让这个“手表”运行。现在,如果我不知道如何设置这套运行规则,那么只要把它放到大量的数据或机器学习算法中,这个算法就会产生一个新的算法,这个新的算法就是我们想要的去拿东西。这样一来,有点像造机器人造机器人。在软件2.0时代,整个软件工程开发范式将发生重大变革。我们希望得到一个端到端的解决方案,其核心是如何更容易地实现“以数据为中心”的软件工程开发。8人工智能,未来将如何落地?我想大概有两个方面。第一,从行业的角度来看,我们还是要从第一原则出发,即从自身需求出发,同时考虑到很多非技术因素。比如我看到有一家公司要为小区安防搭建一个人脸识别系统,但是每个出入口都要配备4个非常昂贵的GPU。这是典型的从需求和成本入手的失败。第二,学术研究不一定跟风。我们一开始就说了,不用比模型的规模:你有千亿模型,我做万亿模型,你有万亿模型,我做一个十万亿模型。事实上,有大量的任务需要小规模的参数,或者由于成本等限制,只能提供少量的样本。在这样的条件下,如何创新突破?这是学术界应该主动承担的责任。9人工智能创业还是趋势吗?我们可以想一想,在20世纪90年代后期,建立一个网站需要2万到3万元,因为那个时候具备网络编程技能的人非常少。但是今天,任何高中生都可以通过单击鼠标来建立网站。也就是说,网络知识已经是每个普通程序员的工具包了。其实人工智能技术也是一样。2015年前后,全世界可能不会超过1000人去构建一个深度学习框架并运行在GPU上。现在它经历了指数级的增长,很多人都会知道。我们有理由相信,在大约五年后,任何程序员的工具包中都会有更丰富的人工智能解决方案,其实施门槛也必然不断降低。只有这样,人工智能技术才能在每一个企业得到更普遍的应用。因此,大厂的AILabs必然会消失。就像2000年前后,很多公司都有一个InternetLab,就是在公司内部设立一个实验室,负责所有与网络相关的事情,这个实验室会向其他业务部门输出技术。这是因为知道这个技术的人很少,所以才会这样做。AILabs也是如此。当人工智能技术落地的门槛逐渐降低,业务部门大量人员拥有类似技术时,这种AILabs必然会消失。我觉得这是技术发展过程中的临时产物,是好事。当大厂没有AILab的时候,大概就是人工智能真正遍地开花的时代。10人工智能,如何造福大众?首先,我们还需要摩尔定律的加持。还有大量的任务需要大量的计算能力,我们必须不断迭代硬件和更新算法。只有需要在集群上跑的东西,在手机上跑起来,AI才能大量落地。其次,人工智能创新的重心要从互联网业务向一些传统行业转移。过去大家的精力都集中在如何利用人工智能做出更好的视觉解决方案,或者更好的推荐系统,或者更好的P图软件。但在实体经济中,其实有大量的部门和企业在产生数据。当这些实体经济数据能够更好地信息化时,它们带来的价值可能会远远超过现在的虚拟经济。