历史就像一个调皮的老头,一遍又一遍地讲同一个笑话,却不知不觉。历史只是一个玩笑,因为玩笑过后,人们发现机器不吃人,机械化还是一朵鲜艳的小红花,自动化不必颤抖。科学技术的进步只是延长了食物链。原来的顶已经不是顶了。我们必须重新找到自己的位置,但是我们的位置还在,绝对的重要性不会降低。它甚至可能会增加,但其相对重要性会降低。.这就是馅饼做大的原因。机械化就是用机器代替人的体力,但是机器的运转还是要靠人。比如用水泵抽水,就不用再扛在肩上了,但水泵的开关还是要靠人看管。否则会造成水池满溢、溢出或水池见底、泵空而造成损坏。不好。自动化时代,水池加了水位计,池子里也加了水位计。如果水池满水或水池干涸,水泵会自动停止;如果水池水位下降,水池水位充足,则重新启动。在人工智能时代,可能会有一种先进的应用监管。水池可能没满,池子里的水已经够多了,但是现在实际用水的地方不用了,白白抽了那么多水,影响了节水,增加了挥发,这也是高峰用电的电价。如果浪费了,可以等着再决定是不是该抽。也就是说,现在需要水的地方有很多,我们需要综合平衡。有优先权的地方可以多用水,需要牺牲大局的地方,或者价格低的时候多用水,价格高的时候少用水。这样在更高层次上规划用水需求,决定是自动抽水进入工作状态还是继续待机,可以算是人工智能的最低层次。也就是说,人工智能可以看作是更高层次的自动化。如果把自动化比作查表做事,表上说看到“1”就做“A”,看到“2”就做“B”,你看到的就在“1”之间而“2”,则Whattodo也在“A”和“B”之间;人工智能就像股票交易,你需??要对比很多曲线,检查很多条件,也许还要根据自己的秘方计算出成本、收益和风险。决定做什么。说到底还是有一定的规律可循,只是“规律”要复杂得多。人工智能有很多分支,目前的主流基本上围绕着神经网络展开。神经元网络模仿人脑的思维,其基本单位是神经元。神经元的数学表达式并不复杂,是一条S型曲线。也就是说,当输入值由小变大时,输出值也由小变大,但不是均匀变化,而是先慢,后快,再慢。神经元的S曲线有几个可以调整的参数。一是调整“小”为多大,“大”为多大。二是调整S型曲率。还有一些参数可以增加或减少整个基线。“Straightened”,S曲线几乎和一条直线斜线一样,神经元的表现接近于传统的连续变量。“扭曲”到极致,S曲线几乎和开关曲线一样,也就是说,当输入值由小变中时,输出值基本保持不变,保持在低水平;中点,产值基本维持在高位。此时S曲线的表现接近于传统的间歇变量。S曲线可以在连续变量(如温度、水位)和离散变量(如“好/坏”、“开/关”)之间无缝过渡,让神经元同时模拟连续变量和离散变量事件,这就是人工智能更“聪明”的关键。单个神经元只是一个有趣的玩具,多个神经元组成的网络可以模拟高度复杂的现象。一层一层的神经元网络形成了一个高度复杂的网络,这就是深度学习,它表现出了让人类害怕的智能。什么是智能,人工智能vs人类智能或许会成为一个永恒的哲学问题,但就目前而言,人工智能已经远远超出了简单重复人类智能的地步。“AlphaGo”击败人类围棋顶尖高手成为里程碑式的转折点。《AlphaGo1.0》依然采用最好的人类棋局,先训练再“自我思考”。“AlphaGo2.0”完全脱离了人类的棋局。通过自学训练。在更“接地气”的层面上,人脸识别已经达到了惊人的准确度和速度。但是这些还是抢不到自动化的工作。人脸识别的对象是传感器,自动化的核心是控制器。自控有两种方式:一种是参数控制,一种是非参数控制。非参数控制不需要被控过程的数学模型,只要了解大致的定性行为即可,比如“加水会导致水位上升,撤火会导致温度下降”。这个无法逆转,剩下的就看某种形式了。控制算法和参数整定,最终调试出一个稳定满意的系统,传统的PID就是这样。参数控制基于数学模型。数学模型的作用是在给定输入时,准确预测被控过程的响应,然后根据需要的响应,将需要给定的控制输入反相。当然,模型不可能完全准确,剩下的就是靠反馈和参数微调来“磨”。如果用人工智能做非参数控制,调参太恐怖了。一个简单的单回路神经元网络控制器可能有一个决策层,不超过10个神经元,加上输入和输出层,有30-50个可调参数,这是不可能像PID那样设置的。PID中只有3个参数。大多数人觉得麻烦。他们不接触微分,只接触比例和积分。移动这么多参数是不可能的。但是如果锁定大量的参数,神经元网络的高可塑性就没有了,就不用担心了。和“AlphaGo1.0”一样,理论上可以用现有数据训练一个神经网络控制器。问题是在实践中不可能有如此大量的输入输出静态数据和动态数据。如果有这样的数据,非神经网络的控制器已经在手,行为是可以预测的,那何必呢?直接观察人操作的常年数据是不行的,它是一个闭环,输入输出因果关系被打乱了,所以直接拿来训练肯定不行,跟闭环一样鉴别。像“阿尔法狗2.0”那样的自学呢?更何况。《阿尔法狗2.0》自我训练的前提是有明确的规则和游戏空间。更重要的是,自学需要大量的反复试验。在实际工业过程中不可能做这种试错。人们想生产它吗?更重要的是,无限的试错可能会导致各种安全问题。使用高精度模拟系统进行大量试验和错误不会造成危险或生产损失。《阿尔法狗2.0》其实是这么干的,只是围棋和实际的工业工程差距太大了。《阿尔法狗2.0》可以左右手互动。它也可以与“AlphaDog1.0”一起玩。每一步都清晰地显示在棋盘上,结果判断也一目了然。实际工业过程需要高精度的动态仿真系统,必须考虑各种不确定因素。高精度动态仿真是行业特例,可遇而不可求。事实上,有了高精度的动态仿真模型,就可以成为模型预测控制或其他现代控制方法的基础,而无需费力去制作神经网络控制器。这与人工智能在医学上的应用是一样的。人工智能辅助诊断受欢迎,但自学人工智能治疗?请先。神经网络在控制算法中得到长足发展的关键可能在于缺乏统一有效的数学分析框架。PID控制的概念由来已久,但随着微分方程稳定性理论的发展才上升到理论层面。微分方程是数学的一个非常重要的分支,稳定性是微分方程的另一个分支。从这里开始,用拉普拉斯变换发展了频域分析,并建立了经典控制理论。1960年代,卡尔曼引入线性代数,建立了状态空间方法。控制理论进入了单变量和多变量统一框架乃至非线性系统的现代控制理论阶段。随着计算机的发展,曾经只停留在纸上的控制理论可以在工程中实现。各种严格的、不严格但有效的控制方法(如模型预测控制)如雨后春笋般涌现,但基本上都是基于微分方程。在的框架下,计算机实现中使用的差分方程也可以看作是微分方程离散化的结果,许多结论和方法可以通过映射进行传递和使用。然而,神经元的S曲线虽然威力无穷,但很难用已知的数学方法进行分析和综合。也就是说,即使建立了被控对象和神经网络控制器的模型结构,除了用数字仿真反复试错外,也无法保证回路的性能,甚至给出有意义的指导设计原则(如经典控制理论上“闭环极点必须在左半平面内才能保证稳定性,离虚轴的距离代表收敛速度,离实轴的距离代表振荡频率”)无法实现。数字仿真的试错场景总是有限的,仅仅以此作为系统稳定性的依据是不够的,因为没有人知道系统在有限场景之间(插值)或外部(外推)的稳定性。经过测试。它会如何反应,所以模拟成百上千次不一定能说明问题。这与传统的控制理论(包括经典的和现代的)在设计计算完成后,数字仿真只是用来验证,几个点就足够了。这个问题在人工智能实践中已经出现了。“阿尔法狗”(无论是1.0还是2.0)在棋局中做出了难以想象的走法,事后看来是对的,但如何走出这样的走法,至今仍令人费解。这样的人工智能正在成为应用中的最大障碍:人类无法接受无法理解因而无法信任的人工智能决策。对于实时性要求高的控制领域,人工智能决策的每一步都由人类来检查是不可能的。在可以对人工智能的行为进行严格的数学分析和预测之前,这一道坎很难逾越,因此在可预见的未来,人工智能决策的直接应用必然受到限制。然而,在自主控制层之上的“指挥层”,人工智能几乎是不可避免的,就像前面提到的智能水调度系统对自动控制的水泵进行指挥一样。这种场景下,对自制力的要求其实是高的,而不是低的。在模型预测控制时代,有人对PID的未来表示担忧,但很快发现,要使模型预测控制有效发挥作用,需要更精细地调整PID层,使其达到最优状态。这与级联控制相同。主回路就像一个小领队,副回路就像一个工人。如果工作手脚又快又准,小领导有条不紊、有条不紊,那么这次合作就会如鱼得水,指哪打哪。要是反过来,小领导乱七八糟,马马虎虎,肯定会被砸的。在人工智能时代,这仍然是一个真理。指挥级的人工智能,要有长远的眼光,不能当妈;自我控制水平必须更加敏捷和精确。指挥层和自控层最好有深入的沟通。命令层不仅下发下一步指令,还将预期的未来指令一起下发,以便自控层提前做好安排。这就像在拐角处开车一样。看着车头前方3米处,一点一点过去,转弯安全,减速即可。但如果早早看到前方完整的弯道,可以提前计划,入弯时稍稍刹车,中间稍微甩尾,出弯再加速,这样会快很多。但这需要提前看到整个曲线,提前做好准备。这种预测控制是典型的PID做不到的,模型预测控制可以做到,但各种PID仍然是模型预测控制的腿脚,不仅不能削弱,还必须大大加强。人工智能时代,自动化不仅不用颤抖,还能打起精神,锻炼新技能。原来金字塔顶端的位置被人工智能拿走了,但自动化还坐在原来的位置上,只是金字塔长得更高了。
