上个月出门,发现路口的交警和辅警明显增多。我不禁有些惊讶。过去十年,人工智能最成功有效的应用不就是安防和交通相关的应用吗,而路口往往是视频监控最密集的地方?如果是这样,为什么我们需要这么多警察部队?什么?除了需要定期上街履职外,一个深层次的原因是人工智能无法100%征服世界。在更极端的情况下,人工智能的终结可能是人为的。为什么这么说?原因之一是人工智能算法的评估标准。这里讨论两个指标,漏检率和误报率。第一个指标,漏检率,指的是本应发现但算法没有检测到的问题,俗称漏报。以交通违法行为为例,漏检率或漏检率意味着并不是所有的违法行为都能被有效检测到。如今,随着监控探头的日益普及,大多数违规行为已经可以被人工智能算法检测到。如前期开发闯红灯、高速公路超速、占用高速公路应急车道等,中期开发基于云台监控摄像头的路边违章停车三分钟、拦车牌等,以及近年来实线变道、城市禁声区鸣喇叭等。然而,随着司机越来越注重交通安全,这些易于监控的违规行为越来越少见。以至于可以推测,未来对于此类违规行为的监控可能更难被触发,甚至无用武之地。那么,交管部门和相关研发企业就必须深化对监控系统的研究,着力识别更复杂的交通违法行为。例如恶劣天气或低照度条件下的低分辨率车牌识别,非机动车违章等。然而,这些复杂的交通违法行为可能无法通过人工智能算法获得极低的漏检率,甚至可能无法形成应用级的实际监控系统。如非机动车闯红灯、禁行区行驶等。虽然这方面的智能监控已经开始试点,但在非机器没有车牌、司机戴着口罩的情况下,算法很难自动得出明确的结论。这时候只能靠人工现场制止和处罚了。第二个指标,误报率,指的是不应该被检测出来却被误认为是真的“假问题”,俗称误报。还是以交通违章为例,误报率高,意味着误报的次数太多。比如在高速公路上,检测到有车超速行驶,但真正的车并没有真正出现在路段上。结果,失主收到了一张不属于他的罚单。又如将公交车车身上的广告字误判为违规行人。这些是误报。高误报率或高误报率往往会导致后期人工干预的工作量增加。除了交通违章,漏检率和误报率带来的问题在很多应用领域都可以看到。比如在医疗方面,新冠患者的漏检可能会造成不必要的病毒传播,健康人误报癌症会导致人们的精神状态受损。例如,在短视频的检查中,对于涉嫌遗漏的短视频的违规行为,必须进行人工审核,以防止其扩散造成的危害。误报也需要人工判断是否可以放行。近年来,大量人工智能技术的实施表明,相关应用的误报率和漏检率得到明显改善。但是,应该指出的是,一旦易于实施的应用程序完成或商业化,剩下的就可能是棘手的问题了。在这些高难度的潜在应用中,依靠现有的人工智能技术,这两项指标可能难以有明显提升。这也意味着,人工处理仍将是这些应用程序需要依赖的主要手段。事实上,漏检率和误报率这两个简单的指标只是影响人工智能全面替代人工智能,导致人工智能最终依赖甚至让位于人工智能的一个小因素。这样做的原因是这两个指标主要与预测任务的性能有关。人类智能除了预测之外,还包括可解释性等与预测没有密切关系的智能活动。例如,学生刷题后形成的新题快速判断,是一种不经过常规解题思维直接找到答案的快速方法。从某种意义上说,这是一种跳脱原有学习模式后形成的“跳跃式”联系,或者说直觉。这种直觉目前无法通过数学建模来表达,仍需人们自己不断学习获得。情绪也是如此。虽然我们可以在构建人工智能算法时对情绪进行机械分类和预测,但通过这种方式获得的情绪只能让机器人更加机械化,而不能向同理心迈出质的一步。即使是预测,我们也受限于对自然界的理解,不能对人工智能技术抱有太大期望。例如,在天气预报中,由于大范围台风的数据收集不完整,局部地区的降雨量预报可能会出现错误。不仅在空间尺度上存在局限性,而且在时间尺度上也存在局限性。例如,气候变化可能有几十年的周期,那么根据十几年的数据来分析气候显着性显然是不准确的。事实上,我们在一些应用中仍然面临着数据稀缺的问题。例如,局部冰雹的预报将因数据极其稀缺,雷达回波无法与强降雨云区分开来而失效。我们也不应过分相信机器的预测能力。比如在自动控制方面,过于相信机器的判断可能会导致极其危险的后果。比如2019年3月埃及航空737MAX8的空难,就是因为过于相信机器的自动驾驶,导致司机后来无法接管而造成的悲剧。人工智能的缺点很多,可以一一列举,我就不一一列举了。在这里,我想表达的是,目前人工智能技术的落地主要是在预测能力能够达到应用层面的应用,也算是享受了这些应用所能带来的红利。一旦人工智能在应用层的红利消失,剩下的可能就得靠人力了。那么自然而然的问题是,人工智能在各种相关应用中的红利还能持续多久?人工智能的终结会是人工的吗?或者它将不可避免地走向人机混合?
