当前位置: 首页 > 科技赋能

《贝叶斯之父网》:走向强人工智能,机器需要因果论

时间:2024-05-20 01:56:41 科技赋能

人工智能领域的大部分问题都是决策问题。

我们先介绍一下决策理论的背景:2007年,罗马尼亚裔美国统计学家弗拉基米尔·亚伯拉罕·沃德(Vladimir 亚伯拉罕·沃德)撰文指出参数估计和假设检验都是统计决策问题,甚至打算将整个统计纳入到决策理论中。

统计决策理论框架。

损失函数是统计决策的起点,反映了专家知识和特定需求。

给定一个损失函数,无论有没有观察数据,儒学都会一致选择预期损失最小的决策。

频率论者需要提前制定决策规则,根据损失函数和样本定义风险函数,然后根据一定的原则(如极大极小原则、贝叶斯风险原则等)选择最优决策。

“观察事件”和“使事件发生”之间存在本质区别。

如果决策是基于被动接受的观察数据,那么它就处于因果关系阶梯的第一级,强烈依赖于观察数据,因此不可避免地存在偏见。

借助第二级工具——干预,决策可以摆脱观察样本的束缚,揭示一些样本无法反映的事实。

其实这里并没有什么神秘之处。

这些经验或知识已经被写在因果图中,现在它们只是与数据一起使用来帮助人类或机器做出更好的决策。

简而言之,达到第二级的AI将具备主动实施行动分析因果效应的能力,从而使决策行为更加智能。

第三个层次的反事实推理让机器拥有“想象力”。

反事实推理考虑的是一个与现实世界完全相反的假设世界,无法通过直接观察数据来推断。

必须使用因果模型。

《为什么》书中提到了“学历/工作经历/薪资”的因果模型。

作者的问题是,如果Alice获得学士学位,她应该得到多少薪水?这是一个很好的例子。

仅凭缺失数据分析无法得出合理的估计。

因果之梯 如今,深度学习仍然是人工智能的热门方法,甚至有人盲目地将其与人工智能等同起来。

事实上,机器学习只是人工智能的一个领域(其目标是使计算机能够在没有明确程序指令的情况下从经验或环境中学习)。

机器学习的方法有很多种,深度学习只是沧海一粟。

理论上可以证明,即使人工智能在因果关系阶梯的最低层达到极致,也无法跳转到干预层面,更无法进入反事实世界。

作为因果关系阶梯最底层的机器学习技术,大数据分析和深度学习并不神秘。

更简单地说,大数据分析是多变量统计分析,而深度学习只是一个具有更多隐藏层的神经网络。

,理论上并没有太多新意。

Pearl教授认为,大数据分析和深度学习(甚至是大多数传统的机器学习)处于因果关系阶梯的第一级,因为它们的研究对象仍然是相关性而不是因果关系。

珀尔并没有贬低因果关系阶梯最低层次的相关分析。

他只是提醒我们不要满足于这个水平,而要继续攀登。

不同层次之间也可以形成合作。

例如,在实践中,深度学习可用于适应强化学习中的策略。

两者联手成为“深度强化学习”,被用作AlphaGo的核心技术之一。

(“阿尔法狗”)在那里闪耀。

《为什么》Judea Pearl,第一作者、图灵奖获得者 | samueli.ucla.edu 珀尔的科普书来得正是时候。

众所周知,本轮AI爆发很大程度上得益于算力的提升。

例如,深度学习是人工神经网络借助计算能力的“卷土重来”,将数据驱动的方法推向巅峰。

人们甚至产生一种错觉——“所有科学问题的答案都隐藏在数据中,等待巧妙的数据挖掘技术来揭晓”。

珀尔教授批评了这种思潮。

他把因果模型放在了更高的位置,把数学或统计建模的荣耀还给了相应领域的专家。

我们希望未来机器学习不再依靠炼金术士的运气来获得成功。

随着知识推理和计算受到越来越多的关注,可解释的人工智能将从新的因果关系科学中汲取更多力量,甚至进入反事实的世界。

2009年,谷歌收购了英国人工智能公司DeepMind。

该公司开发的AlphaGo围棋程序于2015年首次击败人类顶尖围棋选手李世石,次年横扫所有人类高手,取得全胜(其中3:0战胜柯洁) 。

聂卫平(九段)称其水平“至少二十段”。

AlphaGo使用深度强化学习和蒙特卡洛树搜索,其最终版本AlphaGo Zero可以在短短3天内将自己训练到击败李世石的水平。

2016年,DeepMind宣布AlphaGo“退役”,不再参加任何围棋比赛。

在国际象棋游戏中,围棋所包含的巨大搜索空间(状态数量远远超过整个宇宙的原子数量)一直是机器学习无法克服的难题。

甚至被认为在不久的将来不可能通过人工智能来解决。

固定的。

AlphaGo的成功不仅让人们看到了强化学习和随机模拟技术(又称“蒙特卡罗”技术)的魅力,也让深度学习变得更加流行。

冷静下来后,人们意识到AlphaGo的算法更适合大规模概率空间中的智能搜索,并且其环境和状态是可以模拟的。

DeepMind 创始人 Demis Hassabis 表示,这些算法对于环境难以模拟的决策问题(例如自动驾驶)也无能为力。

Pearl还在第10章谈到了AlphaGo,认为缺乏可解释性是它的缺陷。

笔者认为,我们不应该对抗人工智能技术,而应该取长补短。

以强化学习为例。

它不同于监督学习和无监督学习。

它是基于马尔可夫决策过程发展起来的第三类机器学习方法——智能体通过与环境的交互而改变。

必须变得“聪明”。

强化学习和因果推理都寻求策略,其中行为之间存在因果关系,但因果推理更加开放,可以使用数据以外的知识来推断策略的效果。

强化学习可以推断干预的结果,从而爬到因果关系阶梯的第二级。

通过模拟环境,强化学习不需要从现实世界获取观察数据来训练模型,因此也有可能生成反事实并爬到因果关系阶梯的第三层。

尽管当前的强化学习很少使用先验知识,但我们仍然对强化学习和因果推理之间的理论联系感到好奇。

未来人工智能的发展也将有“全面”的趋势。

例如,语音、图像、视频数据等可以转换为文本,AI技术可以帮助我们加深对数据的理解。

同时,借助AI技术(包括因果推理)更好地理解数据也有助于模型训练和提高应用效果。

同样的道理,因果理论与机器学习等现有人工智能技术是否有可能联手互利?例如,因果推理中考虑的变量越多,计算挑战就越大。

那么,基于蒙特卡罗方法的近似计算有帮助吗?机器学习可以帮助和改进因果建模吗?这些问题都需要深入研究。

形式化的因果理论不仅解决了困扰统计学家多年的一些悖论,更重要的是(1)用“干预”让人类和机器摆脱被动观察,转而主动探索因果关系。

为了做出更好的决定; (2)利用“反事实推理”拓展想象空间,从而摆脱现实世界的束缚。

这两次突破实现了因果革命,分别构成了因果阶梯的第二层和第三层。

遵循因果关系的阶梯,机器有望拥有强大的人工智能。

Pearl的《为什么》是作者所知迄今为止出版的唯一一本关于因果科学的科普著作。

在书中,作者以浅显易懂的方式向读者展示了因果科学的理论框架和发展脉络。

值得一提的是,那些曾经令人费解的悖论,作为经典统计学中的未解之谜,终于通过因果分析被揭开,笼罩在它们身上的迷雾也随之消散。

真相大白后,因果推论显得那么自然,仿佛一切就该如此。

对于每一个想要了解因果关系科学的读者来说,以《为什么》为起点就意味着你已经走上了一条捷径。

在理解本书的基础上,阅读因果科学的专业著作,你的收获会更大。

本文整合自 《为什么:关于因果关系的新科学》 入门手册。

作者:《为什么》首译者、华为泊松实验室主任、机器学习与应用数学首席科学家姜生。

经中信出版集团许可出版。