到七个月大时,大多数孩子即使在看不见的地方也能认识到物体的存在。把一个玩具放在毯子下面,孩子就会知道它在那里,他可以把手伸到毯子下面把它拿回来。这种对“物体永恒”的理解是正常发展的里程碑,也是现实的基本原则。这也是自动驾驶汽车所不具备的。这是个问题。即使自动驾驶汽车变得更好,它们仍然不像人类那样了解世界。对于自动驾驶汽车来说,被路过的面包车暂时挡住的自行车是一辆不复存在的自行车。这种失败在现在广泛应用的计算学科中很常见,它自称为人工智能(AI),但名称有点误导。当前的人工智能通过构建复杂的世界统计模型来工作,但它缺乏对现实的更深入理解。如何赋予AI至少一些表面上的理解能力——七个月大的孩子的推理能力——也许是现在应该积极研究的问题。现代人工智能基于机器学习的思想。如果工程师想让计算机识别停车标志,他不会试图编写数千行代码来描述可能代表这种标志的每个像素模式。相反,他编写了一个自学程序,然后向它展示了数千张停车标志图片。经过多次循环迭代,程序逐渐找到所有这些图片的共同点。类似的技术被用于训练自动驾驶汽车在交通中导航。因此,汽车学会了如何遵守车道标记、避开其他车辆、在红灯时刹车等。但它们不理解许多人类司机认为理所当然的事情,比如其他道路上的汽车有发动机和四个轮子,他们遵守道路规则(通常)和物理定律(总是)。而且他们不了解物体的永久性。在最近的一篇论文中,瑞典厄勒布鲁大学的MehulBhatt描述了一种不同的方法,他也是一家名为CoDesignLabs的公司的创始人,该公司正致力于将他的想法商业化。他和他的同事使用了一些现有的自动驾驶汽车,这些汽车使用嵌入了一种称为符号推理引擎的软件的人工智能程序。该软件不是像机器学习那样以概率方式接近世界,而是对软件进行编程,在处理来自自动驾驶车辆传感器的信号后,将基本物理概念应用于程序输出。然后将修改后的输出输入到驱动车辆的软件中。涉及的概念包括离散对象随着时间的推移继续存在的想法,它们彼此之间具有空间关系,例如“前面”和“后面”,并且它们可以完全或部分可见,或者完全隐藏由另一个对象。在测试中,如果一辆车暂时挡住了另一辆车的视线,推理增强软件可以跟踪被挡住的汽车,预测它会在何时何地再次出现,并在必要时采取措施避开它。虽然提升不是很大。在标准测试中,Bhatt博士的系统比现有软件高出约5%。但它证明了这一点。它还会产生其他东西。与机器学习算法不同,推理引擎可以告诉您它为什么做某事。例如,你可以问一辆带有推力发动机的汽车为什么要刹车,它可以告诉你它认为一辆被面包车遮挡的自行车即将进入前方的十字路口。机器学习程序无法做到这一点。Bhatt博士认为,除了帮助改进计划设计外,这些信息还将帮助监管机构和保险公司。因此,它可以加快公众对自动驾驶汽车的接受度。Bhatt博士的工作是人工智能领域长期争论的一部分。在1950年代工作的早期人工智能研究人员使用这种预编程推理取得了一些成功。然而,从1990年代开始,由于更好的编程技术以及更强大的计算机和更多可用数据,机器学习得到了显着改进。今天,几乎所有的人工智能都基于它。然而,Bhatt博士并不是唯一持怀疑态度的人。在纽约大学研究心理学和神经科学的GaryMarcus对此表示赞同。他还是一家名为Robust.ai的人工智能和机器人公司的所有者。为了支持他的观点,马库斯博士引用了一个广为人知的结果,尽管是八年前的结果。当时,DeepMind(当时是一家独立公司,现在是谷歌的一部分)的工程师编写了一个程序,可以使用虚拟球拍自学,而无需获得有关规则或如何玩Breakout(游戏)的任何提示击中移动的虚拟球.DeepMind的程序是一个强大的玩家。但是当另一组研究人员修改Breakout的代码时——将桨的位置仅改变几个像素——它的能力直线下降。它甚至不能将它从特定情况中学到的知识应用到仅略有不同(无法概括)的情况。对于Marcus博士来说,这个例子凸显了机器学习的脆弱性。但其他人认为符号推理是脆弱的,机器学习仍然有很多好处。其中包括总部位于伦敦的自动驾驶汽车公司Wayve的技术副总裁JeffHawke。Wayve的方法是同时(而不是单独)训练同时运行汽车各个部分的软件。在演示中,Wayve的汽车在狭窄、交通繁忙的伦敦街道上行驶时做出了正确的决定,这对许多人来说是一项具有挑战性的任务。正如Hawke博士所说,“大多数现实世界的任务远比人工制定的规则复杂得多,众所周知,使用规则构建的专家系统难以应对复杂性。无论逻辑的思考或结构如何,这都是事实上。例如,这样的系统可能会创建一个规则,即汽车应该在红灯时停止。但是,不同国家的交通灯设计不同,有些灯是为行人设计的,而不是为汽车设计的。还有一些情况你可能会需要闯红灯,比如给消防车让路。霍克博士说,“机器学习的美妙之处在于,所有这些因素和概念都可以从数据中自动发现和学习。随着数据的增加,它会继续学习并变得更聪明。在加州大学伯克利分校研究机器人和人工智能的NicholasRhinehart也支持机器学习。Bhatt博士的方法确实表明您可以将这两种方法结合起来,他说。但他不确定是否有必要。在他的工作和其他人的工作中,仅机器学习系统就可以预测未来几秒钟内发生事件的概率,例如另一辆车是否可能让路,并根据这些预测制定应急计划。Bhatt博士回应说,你可以用积累了数百万公里的驾驶数据来训练一辆汽车,但仍然不能确定你是否涵盖了所有必要的情况。在许多情况下,从一开始就编写一些规则可能更简单、更有效。对于这两种策略的支持者来说,问题不仅限于自动驾驶汽车,而是人工智能本身的未来。“我认为我们现在采取的方法不正确,”马库斯博士说。“机器学习已被证明在语音识别等某些方面很有用,但它并不是人工智能的真正答案。我们还没有真正解决智力问题。不管怎样,七个月大的孩子似乎还有很多东西要教机器。
