谁还记得当年风靡一时的“互联网+”……“衣住行网”,今天的很多互联网巨头一夜之间诞生,但时过境迁,尘埃落定尘埃落定,看来现在是人工智能时代起来了。但每当我经历过数次人工智能还没有那么智能的时候,我总会发自内心深处发自灵魂的疑问:人工智能?就是这样?电影里的人工智能就是这样,无所不能,追求进步,感情丰富,想着我是谁,我从哪里来,我要去哪里……但在现实中呢?机械地接受指令往往会出错。遇到一些突发情况,不能马上解决,更谈不上和你沟通感情交流。B站上的一些人工智障表演,经常有上千万人观看。比如一段让男主哭泣的《出师表》,在谷歌翻译看来,这是一篇跨越三千年的跨学科作文,充满了偶然的疑问,让人哭笑不得。正是因为现有的人工智能技术在大多数情况下不能体贴地解决实际需求,互联网上诞生了一批反其道而行之的大发明家,他们的产品形象地展示出来,“你说其他的是什么意思?”人们的产品要花钱,但他们的人工智能产品很糟糕。”那么,大家有没有想过这个问题,为什么今天对人工智能的批评那么多?真的只是因为开发时间短、不成熟吗?还是根本相反?01、主流人工智能为什么不“聪明”?有些人工智能之所以没有想象中那么聪明,是因为它们实际上只是特殊的人工智能,而不是像人类一样能够完成各种任务的通用人工智能系统(ArtificialGeneralIntelligence)。目前,主流人工智能研究机构提供的产品并不属于“通用人工智能”的范畴。比如谷歌的AlphaGo,曾经因为击败李世石和柯洁而名声大噪,其实就是一个专用的人工智能系统。除了围棋,它甚至不能用来下象棋或将棋,更不用说进行医疗诊断或为家用机器人提供软件支持了。虽然驱动AlphaGo工作的“深度学习”技术经过一些修改后可以用于其他人工智能工作领域,但进行这种修改的是人类程序员,而不是程序本身。不妨追溯一下人工智能的起源。它的诞生原本是哲学思辨的产物。很多人可能都看过《模仿游戏》。主人公图灵实际上对人工智能科学的兴起起到了至关重要的作用。1950年,他在一篇论文中提出了著名的“图灵测试”,认为人造机器具备人工智能的条件是其语音行为能否成功模拟人类的语音行为。(也就是说,当我们和机器对话时,我们会误以为是真人)。其实,从诞生之时起,AI研究就在探索,什么是“智能”?它能不能解决具体的问题,还是在行为层面上和人类相似?判断一个AI系统好不好,往往取决于它能否实现设计者最初的目标,这不同于物理实验的路径来判断假设的合理性。在现阶段的各种人工智能研究方法中,没有一种取得绝对优势,但我们大致可以将其分为两种方法:符号主义和连接主义。不要被这些晦涩的术语吓倒。所谓符号主义方法实际上是用现代形式逻辑来推导。例如,在给计算机编程时,输入一些现实的数据,然后用逻辑推理得出结果。这种做法其实应用很广泛,但是存在一些根本性的问题,造成了很多灾难:比如2019年的空难,事故就起源于飞机上的AI系统,它自动控制了飞机的头部和头部地面。Angle,而人类很难找到手动控制的按钮,只能依靠AI。它的工作原理非常简单。机头上有一个传感器,可以检测飞机与地面的夹角,然后将数据发送给系统,系统会自动调整,直到符合标准。然而,一个根本问题是,如果传感器本身出现故障怎么办?这个AI系统无法解决这个问题,因为它的原理是根据给定的经验数据进行机械的逻辑推演,不能根据真实环境的变化灵活做出临时判断。事实上,这种方式的AI系统全部采用了现代形式逻辑思维,虽然也难以满足基于联结主义的另一流派深度学习技术的发展(想必大家经常在科技新闻中看到“深度学习”。流行语,虽然可能不清楚它的意思)。然而,在现实生活中,我们大多数人往往不会使用形式逻辑思维,而这种思维本身似乎比我们的“直觉”和“想象”更理性、更科学,但它也会带来很多问题:例如,形式逻辑无法检查它自己处理的经验命题的真假。上述空难就是一个例子。为了克服这一点,设计者通常会预设许多经验事实在推理中起到真理的作用,然后固化经验世界。人类可以轻松地在变化的经验世界和不变的逻辑世界之间切换,但依赖形式逻辑的人工智能却不能。再比如,形式逻辑的语义侧重于描述“边界清晰”的极端情况,而日常生活中的很多表达却处在语义歧义的“灰色地带”。一个具体的例子就是“张三很有钱”这句话。按照现代逻辑的表述,即使只有一分钱属于张三,“张三很有钱”这句话是对的,但人们的日常用语显然意味着,张三的财富肯定远远超过普通人。而一个实际的问题是,形式逻辑不考虑经济性和可行性,只注重有效性,这意味着当它真正应用于人工智能编程时,并不关心需要的大量公理和推理步骤。但实际的AI编程显然需要考虑成本问题和工程效率。至于所谓的联结主义AI研究,其关注点并不是在符号层面对人类信息处理进行逻辑重构,而是着眼于如何在数学上模拟人类神经网络的运行,并通过“训练”使其可以给出用户期望的合格输出。02.深度学习对人类文明构成隐患。当前流行的“深度学习”技术其实就是联结主义的前身,即“人工神经元网络”技术。这种技术有一个简单的类比。假设一个外国人去少林寺学武,他和师傅语言不通,他就先观察师傅的动作,然后据此学习。师傅通过简单的肢体交流告诉徒弟他所学的是否正确。徒弟若知其错,不能以言知其错在何处。他只能无限猜测,无限模仿,直到师父确定为止。这种方法显然效率很低,但“随机猜测”是联结主义的本质,因为这种AI系统并不知道输入的信息是什么意思。如果“理想方案”符合它,“记忆”就会被保存下来,“学习”就会在此基础上继续下去。所谓“深度”学习,并不是说AI可以深入理解学习内容。其原文“deeplearning”译为“深度学习”可能不太容易引起歧义。即通过系统技术升级,增加隐藏单元层数和中间层数。这种方式显然依赖于硬件的提升和互联网普及带来的海量数据。那么为什么深度学习会对人类文明构成潜在威胁呢?这里所说的威胁不是那种科幻想象,而是基于现实的考虑。简单来说,“深度学习系统的广泛应用会在短期内对人类特定领域的工作岗位构成威胁,进而也对人类专家稳定的培养机制构成威胁,让未来的智慧深度学习成为可能。”学习变得越来越困难。”被耗尽”,因此,人类文明可能会在用尽深度学习的短期红利后走向衰落。这段话到底是什么意思?先从医学上的肿瘤AI诊断说起。这种新兴技术在设计深度学习框架时必须依靠专家医生来标记数据。但是,专家医生的看图能力是经过几十年的学习和实践积累起来的。的。换句话说,当这种AI技术得到推广时,医学生可能没有精神上的动力去花费多年的心血进行相关研究。从长远来看,这会削弱人类医生的相关能力。而且,由于深度学习的统计机制会剔除偶然数据,很多罕见病例的肿瘤形态不会被标记出来。在这种情况下,我们只能依靠人类医生。从长远来看,人工智能肿瘤诊断对于人类医生来说也将是难得一见的。案件的容量受到负面影响。徐应金老师认为,深度学习技术在专业领域对劳动力的剥削和替代,实际上是在剥削和威胁人类文明的人力资源。所谓人力资源,包括稳定但不僵化的知识培训体系,使劳动力在专业技能和文化素质方面得到发展,每个人思维和技能水平的差异使人力资源充满丰富性。这是一个社会人力资源可持续发展的重要前提。然而,现有的人工智能系统无法像真人一样对同一价值内容产生多样化的理解。深度学习机制实际上是收集了大量的一般性理解并进行平均化,无形中排除了很多个性化的认知,却不能产生新的历史发展可能。这种僵化和平等化的一个后果是,人类在提出新举措时会受到人工智能的限制。例如,当一个创新的影视制作人提出一个新方案时,如果资本方依赖深度学习提供的信息处理方式,就会以“缺乏数据支持”为由反对这个创新。从事创新文艺创作,不可能得到资本圈的支持。03.对当前主流AI研究的批评传统AI系统需要对系统所面临的环境,或者说要处理的任务类型,给出非常清晰的定义,所以不具备那种对开放环境的适应性.然而,在现实生活中,即使是鸟类的天生智慧也具有处理“大局”属性的能力。比如乌鸦所面对的原始环境当然不包括城市,但这并不妨碍日本东京的乌鸦成为高度适应城市环境的生物。相反,精致的日本乌鸦,过度提取信息,导致现在的人工智能陷入了所谓的“探索-提取困境”。如果不大量利用人类现有的知识,机器就无法在该领域发挥智能。然而,一旦机器对利用人类现有知识“上瘾”,就不可能在任何领域进行新的探索。相比之下,相对高级的自然智能具有不过度利用已有知识进行创新的能力(如“司马光砸缸”案例所体现的司马光的创新能力)。因此,如果有一天实现了超级通用人工智能,其技术路径必然与目前主流的人工智能技术大相径庭。总的来说,目前社会各界正在大肆炒作的AI概念,需要冷静的“祛魅”操作,需要一定的科学知识支撑,也需要一定的哲学分析协助的能力。我国当前人工智能发展的基本策略是利用中国庞大的互联网用户产生的数据红利,扩大起源于美国的深度学习技术的应用范围,使相关技术的发展更容易获得技术供给来自某些国家。侧压。要找到摆脱这种局面的出路,创新的哲学思维非常重要。比如,如果我们能够基于小数据(而不是大数据)提出一种新的AI开发思路,从而原则上不需要获取用户的大量个人信息,就完全可以避免美国目前的以我的国家为目标。大部分政策限制。
