当前位置: 首页 > 科技观察

行业观察:全球人工智能发展水平如何?

时间:2023-03-18 15:18:03 科技观察

学术界、工业界、媒体,对于当今科技世界人工智能的发展水平,可能会有不同的看法。我经常听到的一种说法是:基于大数据和深度学习的人工智能是一种全新的技术形态,它的出现可以彻底改变人类未来的社会形态,因为它可以自主“学习”,这大大替代了人类的劳动。我认为这里有两个误解:第一,深度学习不是新技术;第二,深度学习技术涉及的“学习”与人类的学习不一样,因为它不能真正“深入”地理解它所面对的信息。深度学习并非新技术从技术史来看,深度学习技术的前身其实是20世纪80年代闹得沸沸扬扬的“人工神经网络”技术(也叫“联结主义”技术)。该技术的实质是通过数学建模的方式构建一个简单的人工神经网络结构,典型的此类结构一般包括三层:输入单元层、中间单元层和输出单元层。输入单元层从外界获取信息后,根据每个单元内置的聚合算法和激活函数,“决定”是否向中间单元层发送进一步的数据信息。这个过程就像人类神经元接收其他神经元一样。它接收到电脉冲后,可以根据自身核内电位的变化,“决定”是否向其他神经元发送电脉冲。需要注意的是,无论整个系统执行的总体任务是图像识别还是自然语言处理,仅从系统中单个计算单元的运行状态来看,观察者无法得知其本质。相关的整体任务。而是整个系统实际上将宏观层面的识别任务以“化整为零”的方式分解为系统组件之间的微观信息传递活动,并通过这些微观信息传递活动所反映的总趋势,来模拟人类思维在符号层面上的信息处理过程。工程师调整系统微观信息传递活动趋势的基本方法是:首先让系统对输入信息进行随机处理,然后将处理结果与理想处理结果进行比较。如果两者重合不好,系统就会触发内置的“反向传播算法”,调整系统中各个计算单元之间的连接权重,使系统给出的输出与之前的输出不同。两个单元之间的链路权重越大,两者之间越容易出现“共激”现象,反之亦然。然后,系统再次将实际输出与理想输出进行比较。如果两者仍然匹配不好,则系统再次启动反向传播算法,直到实际输出与理想输出匹配。完成这个训练过程的系统,除了能够对训练样本进行准确的分类外,一般还可以对输入的与训练样本比较接近的信息进行比较准确的语义分类。例如,如果训练了一个系统来识别现有照片库中哪些照片是张三的脸,那么即使一张从未进入过照片库的张三新照片也可以被系统快速识别为张三的脸。如果读者对上面的技术描述还似懂非懂,不妨通过下面的例子来进一步了解人工神经网络技术的运行机制。假设一个不懂中文的老外去少林寺学武,师生之间的教学活动应该如何开展?有两种情况:第一种情况是两者之间有语言交流(老外懂中文或少林高手懂外语),让师傅直接“下规矩”来教他的外国徒弟。这种教育方式可能勉强类似于基于规则的人工智能。另一种情况是师徒二人根本就不懂语言。在这种情况下,学生应该如何学习武术呢?唯一的办法就是靠下面的方法:徒弟先观察师傅的动作,然后据此学习,师傅通过简单的肢体交流告诉徒弟动作是否正确(例如,如果正确,师傅会微笑;如果不正确,师傅会为徒弟加油)。此外,如果师傅肯定了徒弟的某个动作,徒弟就会记住这个动作并继续学习;如果不对,徒弟就要猜测自己哪里错了,并根据这个猜测给出新的动作,并继续等待师傅的反馈,直到师傅最终满意为止。很显然,这种武术学习效率是很低的,因为徒弟们会浪费很多时间去猜测自己的动作哪里出错了。但“胡猜”二字,恰好击中了人工神经网络运行的本质。简而言之,这样的人工智能系统实际上并不知道它得到的输入信息是什么意思——换句话说,系统的设计者无法在符号层面上与系统进行交流,就像前面的例子一样,主人它就等于无法和徒弟进行语言交流。这种低效学习的“低效率”之所以能被计算机所容忍??,是因为计算机与自然人相比有一个巨大的优势:计算机可以在很短的物理时间内完成大量的“低效率”。胡猜”,从而选择更正确的解法。一旦看清了里面的机制,我们就不难发现,人工神经网络的工作原理其实很笨拙。“Deeplearning”应该是“深度学习”,那为什么现在“神经网络技术”有了“深度学习”的后继者呢?这个新标题是什么意思?不得不承认,“深度学习”是一个容易混淆的名词,因为它会诱导很多外行认为人工智能系统已经可以像人类一样“深入”地理解自己的学习内容。但现实是,按照人类的“理解”标准,这样的系统甚至无法对原始信息进行最肤浅的理解。为了避免这样的误解,笔者更愿意将“深度学习”称为“深度学习”。因为“深度学习”这个词的英文原意是技术的真正含义,是对传统人工神经网络技术进行升级,即增加隐藏单元层数。这样做的好处是可以增加整个系统信息处理机制的精细度,让更多的物体特征可以在更多的中间层进行结算。例如,在人脸识别的深度学习系统中,更多的中间层次可以更精细地处理不同抽象层次的特征,如主像素、色块边缘、线条组合和面部特征。这样细粒度的处理方式当然可以提高整个系统的识别能力。但需要注意的是,如此“深”的要求所带来的整个系统的数学复杂度和数据多样性,自然会对计算机硬件和用于训练的数据量提出很高的要求。这也解释了为什么深度学习技术在21世纪之后逐渐流行起来。正是近十年来计算机领域硬件的飞速发展和互联网普及带来的海量数据,才使得深度学习技术成为现实。开花提供基本的安全感。但有两个瓶颈阻碍了神经网络-深度学习技术的进一步“智能化”:第一,一旦系统经过训练收敛,系统的学习能力就会下降,也就是说系统无法输入调整权重.这不是我们的最终理想。我们的理想是:假设由于训练样本库本身的限制,网络过早收敛,那么在面对新的样本时,它仍然可以独立修正原有的输入输出映射关系,并使这种修正成为可能。考虑旧历史和新兴数据。但现有的技术无法支持这种看似宏大的技术构想。设计者目前能做的就是将系统的历史知识清零,将新的样本加入到样本库中,然后从头开始训练。在这里,我们无疑又看到了令人毛骨悚然的“西西弗斯循环”。其次,前面的例子告诉我们,在神经网络-深度学习模式识别的过程中,设计者的大量精力都花在了对原始样本的特征提取上。显然,同一个原始样本在不同的设计者身上会有不同的特征提取方式,进而导致不同的神经网络-深度学习建模方向。对于人类程序员来说,这是一个很好的发挥创意的机会,但对于系统本身来说,这无异于剥夺了自己开展创意活动的机会。试想:这样设计的神经元网络-深度学习结构,能否自行观察原始样本,找到合适的特征提取方式,设计自己的拓扑结构?这似乎很难,因为它似乎需要结构背后的元结构,能够对结构本身进行反射表示。至于这个元结构应该如何编程,我们仍然很困惑——因为实现这个元结构功能的是我们人类。令人失望的是,尽管深度学习技术存在这些基本缺陷,但目前主流人工智能界已经被“洗脑”,认为深度学习技术已经等同于人工智能的全部。基于小数据的更加灵活通用的人工智能技术显然需要人们付出更多的努力。从纯学术的角度来看,我们离这个目标还很远。(作者在复旦大学哲学学院工作)