每当有人向我提到“自动驾驶”汽车技术有多么强大以及公众给予了什么样的期望时,我就会想起HBO电视剧中的一个情节《硅谷》:硅谷大亨风险投资家格雷戈里·助手安排了一个自动驾驶汽车将初创公司的年轻员工Jared带回家。
我以为这个情节只是为了说明硅谷的一种傲慢。
当我第一次上车时,一切都很顺利。
但在途中,这辆车突然开始执行先前在行程中设定的指令,无视乘客和Jared的喊叫“停下”和“救命”,冲向另一个目的地:四千英里外的一个无人居住的岛屿。
离开。
。
电视剧《硅谷》Jared的截图终于存了,就在我以为剧情要改成《荒岛余生》的时候。
对于大多数观众来说,这只是剧中的一个黑色笑话,艺术来源于现实。
现实中,如果无人驾驶汽车突然失控,后果真的难以想象。
2018年5月7日,车主在佛罗里达州驾驶特斯拉Model S,在使用自动驾驶模式后遭遇车祸身亡。
这是第一起自动驾驶模式下的致命车祸。
这次事故也迫使所有热衷于自动驾驶的人们不得不面对这项技术带来的安全担忧。
特斯拉曾宣称:“自动驾驶汽车要达到 99% 的准确率相对容易,但要达到 99% 就困难得多,而这就是我们的最终目标,因为一辆以每秒 70 英里的速度行驶的汽车如果发生故障特斯拉并没有说,未来即使这些科技公司声称无人驾驶技术已经发展到极其成熟的水平,但对于一些人来说,安全乘坐无人驾驶汽车可能仍然是困难的。
从心理学的角度来看,这类汽车相对“自我控制”永远都不够“安全”,无人驾驶技术的巨大发展在贝叶斯网络之父 Judea Pearl 看来,是离不开深度学习算法的。
深度学习恰恰是人工智能的体现,因为它的研究对象是相关性而不是因果关系,而它处于因果关系阶梯的最底层。
Pearl 曾经在接受《量子杂志》采访时说过:深度学习的所有伟大成就。
在某种程度上只不过是数据的曲线拟合。
从数学层面来看,无论你如何巧妙地操纵数据,无论你操纵数据时读到了什么,它仍然是一个曲线拟合的训练过程,尽管看起来更复杂。
人工智能的发展在很多方面受益于Pearl的早期研究,但他在最新的著作《为什么: 关于因果关系的新科学》中颠覆了自己。
Pearl认为,当前的人工智能和机器学习实际上处于因果关系阶梯的最低层次。
你只能被动地接受观察结果,并考虑诸如“如果我看到……会发生什么?”之类的问题。
强大的人工智能需要实现第三层次的“反事实”推理。
例如,如果自动驾驶汽车的程序员希望汽车在新情况下做出不同的反应,他或她必须明确地将描述这些新反应的代码添加到程序中。
机器本身无法弄清楚拿着一瓶威士忌的行人可能会对喇叭做出不同的反应,而任何位于因果关系阶梯底部的操作系统都不可避免地缺乏这种灵活性和适应性。
因此,无法做出因果推断的人工智能只是“人为迟钝”,永远无法通过数据看到世界的因果本质。
今年3月,AlphaGo以4比1的比分击败了多年来被认为最强的人类围棋顶尖选手李世石,震惊了世界。
在给人们带来危机感的同时,也点燃了很多人对人工智能发展的兴趣。
的想象力。
不幸的是,人工智能的这一壮举仅证明深度学习对于让机器完成某些任务是有用的。
人们终于认识到,AlphaGo的算法适合在可模拟的环境和状态下进行大规模概率空间的智能搜索,而对于难以模拟的环境下的决策问题(包括上面提到的自动驾驶),这类算法仍然是不知所措。
深度学习使用类似于卷积神经网络的方法,它不会以严格或清晰的方式处理不确定性,并且网络的架构可以自行演化。
完成新的训练后,程序员不知道它正在执行什么计算,也不知道它们为什么起作用。
AlphaGo团队从一开始就没有预测到该程序会在一五年内击败最优秀的人类棋手,也无法解释为什么该程序的执行会产生如此好的结果。
如果机器人像AlphaGo一样缺乏清晰度,那么人类将无法与它们进行有意义的交流并让它们“智能”地工作。
假设你家里有一个机器人。
当你睡觉时,机器人打开吸尘器并开始工作。
这时候你告诉它:“你不应该叫醒我。
”您的意图是让它明白您此时应该打开吸尘器。
是错误的行为,但您绝对不希望它将您的投诉解释为您不能再使用楼上的吸尘器。
那么机器人必须了解其背后的因果关系:吸尘器发出噪音,噪音吵醒了人,这让你不高兴。
这条命令对于我们人类来说极其短小,实际上却包含了很多内容。
机器人需要明白:当你不睡觉时它可以吸尘,当家里没人时它也可以吸尘,或者当吸尘器处于静音模式时它仍然可以吸尘。
从这个角度来看,你是否认为我们日常交流中所包含的信息量太大了?因此,让机器人真正“智能”的关键是理解“我应该采取不同的行动”这句话,无论这句话是人们告诉它的,都是它自己分析得出的结论。
如果一个机器人知道它当前的动机是做X=x0,并且它能够评估如果它做出另外的选择并且做X=x1,结果是否会更好,那么它就是强人工智能。
《人类简史》的作者尤瓦尔·诺亚·哈拉里(Yuval Noah Harari)认为,人类描绘虚构事物的能力是人类进化过程中的一场认知革命。
反事实推理是人类独有的能力,也是真正的智能。
。
人类的每一次进步和发展都离不开反事实推理。
想象力帮助人类生存、适应并最终控制整个世界。
如果想要实现真正的强人工智能,就应该尝试真正应用因果理论提供的反事实推理工具。
对于是否可以开发出具有自由意志的机器人的问题,珀尔的回答是肯定的。
他相信:人们必须了解如何对机器人进行编程以及可以从中得到什么。
出于某种原因,在进化的计算层面上也需要这种自由意志。
机器人拥有自由意志的第一个迹象将是反事实沟通,例如“你应该做得更好”。
如果一群踢足球的机器人开始用这种语言进行交流,我们就会知道他们有自由意志。
“你应该把球传给我,我刚才在等,你却没有把球传给我!”这句“你应该”的意思是你应该做某事,但没有做。
因此,机器人自由意志的第一个标志是沟通,第二个标志是踢更好的足球。
过去,人们对强人工智能的讨论大多局限于哲学层面。
学术界对于“强人工智能”一直保持着谨慎的态度,不敢抱有太多的奢望。
但科学进步永远不会因失败而停止。
无论是无人驾驶,还是其他人工智能技术的发展,最终还是要依靠“人”。
人类会开发出能够理解因果对话的机器人吗?人类可以创造一个吗?人工智能是否像三岁孩子一样富有想象力?回答这些问题的关键仍然离不开“人”。
如果人类自己都无法理解因果阶梯,“人工智能”怎么能变得“智能”呢?机器不必复制人类,但它们可以比人类表现得更好。
这实在是一个可怕的事实。
如果我们能用因果关系代替相关推理,顺着因果关系的阶梯进入反事实推理的世界,那么机器的崛起将势不可挡。
珀尔的书对如何实现这一目标给出了相当清晰且易于理解的解释。
回想起来,其实我的日常生活与“人工智能”这个词的关系并不密切。
然而,当我得知AlphaGo战胜了李世石的那一刻,我心里有一种莫名的、强烈的敬畏感。
科技发展的速度似乎总是超出我们的想象。
当你打开手机搜索关键词“重大突破”时,你会瞬间被科技快餐淹没。
机器会变成什么样?他们将如何对待人类?只有尝试理解因果关系,我们才能少一些困惑,多一些信心去面对这些问题。