当前位置: 首页 > 科技观察

解决自动驾驶的伦理困境:将道德规范转化为数学方程

时间:2023-03-19 14:02:12 科技观察

一辆失控的火车在铁轨上行驶。它行驶的轨道上,绑着五个人,火车快要碾过他们了。此时,您正站在改变火车轨道的操纵杆旁边。如果拉动这个控制杆,火车将切换到另一条轨道。然而,还有一个人被绑在另一条轨道上。面对只有两个选择,你会怎么做?什么都不做,让火车按正常路线从这五个人身上碾过。拉下操纵杆换到另一条轨道,导致火车从另一条轨道上的人身上碾过。这就是著名的伦理学实验——“电车难题”。技术角度只是最终在公共道路上引入自动驾驶汽车的一个方面。另一个非常重要的难题是,在某些情况下,自动驾驶汽车将不得不做出对人类来说也非常困难的道德选择。在不可避免的汽车碰撞中,自动驾驶汽车应该如何选择行驶方向或碰撞目标?关于自动驾驶的伦理问题已有很多理论研究,但将这些伦理问题与实际应用在自动驾驶轨迹规划中的研究却很少。近日,来自德国慕尼黑工业大学的MaximilianGeisslinger、FranziskaPoszler等研究团队发表了一篇题为《自动驾驶伦理:从电车问题到风险伦理》(AutonomousDrivingEthics:fromTrolleyProblemtoEthicsofRisk)关于《哲学与技术》(Philosophy&Technology)的研究报告,将道德转化为数学方程式,提出了轨迹规划的风险成本函数,该函数考虑了整体风险最小化、最坏情况优先级排序和人类平等。论文介绍了电车问题并讨论了伦理原则。电车问题代表了一个困境:两个维度会产生问题冲突。第一个维度是,五个生命比一个生命值钱吗?第二个维度涉及干预程度。不努力阻止一个人的死亡与主动杀死一个人是截然不同的。这不仅仅是法律意义上的。从道德的角度来看,需要的干预越强烈,人们就越难积极做出能够挽救更多生命的决定。与电车不同,自动驾驶汽车的轨迹规划没有任何初始设置,但算法会计算所有轨迹。对于自动驾驶,算法可以在一秒内计算并做出决定,而人类在这种情况下会惊慌失措,本能地采取行动。自动驾驶轨迹规划示意图。蓝色区域代表所有可能的物理可能轨迹。虚线是可能区域内的示例性离散轨迹。现有的伦理原则:功利主义、美德伦理和风险伦理为了构建一个令人满意的伦理结果,作者介绍了应该应用于处理自动驾驶算法中的伦理困境的原则:现实代表性、技术可行性、普遍性、社会可接受性、可解释性和透明度。英国哲学家杰里米·边沁提出的功利主义道德原则,强调整体利润的最大化。功利主义允许和提倡牺牲一个人来拯救更多的人来做决策,所以决策算法可以通过设计成本函数来计算可能的选项的成本,选择成本最低的,比如选择车祸最小的受害人的策略等。然而,这里的核心问题是,为了整个社会获得更大的效用而压制个人的效用是否正确和允许。想象一下,如果一个人愿意选择一辆自动驾驶汽车,在危险情况下牺牲自己来保护他人?这背后还有一个根本性的问题,这应该取决于执行自动驾驶汽车行业通用标准的制造商。司机应该将强制性道德设定强加给整个社会,还是每个司机都应该选择自己的个人道德设定?除了功利主义之外,具有浪漫主义特征的美德伦理学往往强调美德是个人的特质。谨慎、勇敢、节制、正义都是人类的基本美德,所以在人工智能伦理发展的今天,相关理论认为认知机器应该通过类比来展示这些美德。但是机器的优点不能被解释性地预先编程,这是它相对于功利主义的缺点之一。当前的自动驾驶算法通常基于机器学习算法,这可能会产生不同的模式。开发人员可以在训练模型的过程中将美德作为积极的奖励信号,最终的算法应该能够识别需要道德行为的情况并采取相应的行动。因此,这种基于美德伦理的策略也可以具有很好的通用性,但问题是训练数据不能很好地代表极端情况下的正确决策,同时也难以实现可解释性和问责性。作者继续讨论第三种选择:风险伦理(解决危险情况下道德上正确的行为)。风险伦理学中确立了三个决策参考:贝叶斯法则、最大化原则和预防原则。贝叶斯决策准则要求,当面临不同的行动选择时,选择产生最大预期效用的具体行动。该预期效用包括不同事件发生的概率和这些后果的指数/评级。最大化原则可以理解为在没有关于每个结果发生概率的信息的情况下避免最大的伤害。因此,决策者会选择在最坏的预期情况下产生最少坏结果的备选行动。遵循“安全胜于遗憾”的座右铭,预防原则通过制定特定法律来主动预防潜在的未来损害,从而提倡谨慎和规避风险。风险伦理具有高度的透明性(在更可预测的意义上)、普遍性(对风险的考虑与具体情况无关)、现实的代表性(充分考虑不确定性),因此具有较高的社会接受度。作者然后建议,据他所知,在轨迹规划中没有实施风险伦理的技术方法。然后,理论上,策略结果的累积风险可以很容易地计算和比较,从而反映在一个可以编程的数学表达式中。风险伦理是如何形成和实现的?为了理解风险伦理的框架,可以想象一个具体的场景:一辆自动驾驶汽车行驶在自行车和卡车之间,它的位置决定了它带来的风险。更大的距离会将风险转移给骑自行车的人,如果与汽车发生碰撞,他们的后果被认为要大得多,而缩短与卡车的距离会导致风险转移到自动驾驶车辆。总体而言,将自动驾驶汽车乘员面临的风险降至最低是以牺牲道路使用者(例如骑自行车的人或行人)的利益为代价的。尽管这种为了保护自己而将风险转移给弱势群体的行为可能无法满足最严格的伦理审查,也与康德对人的尊严的强调不相符,但Bonnefon等人的研究。表明,大多数参与者仍然倾向于将自动驾驶汽车称为会不惜一切代价保护自己,这也可能导致汽车制造商和自动驾驶技术提供商以这种准备为导向来设计策略。在考虑风险的计算和建模时,通常将其定义为发生概率与估计后果的乘积。借助这种量化计算和策略后果的估计,前人提出了相关的具体算法实验,其中Leben强调了参与者生存概率的估计和最大化,作者提出的方法本文强调了相关后果的概率和风险叠加。在这种二维概率叠加中,需要同时估计发生碰撞的概率和相应后果的危害性。碰撞概率的估计来自于自动驾驶过程中各种不确定因素的共同后果,而这些不确定因素逐渐叠加在上图所描述的运动规划的整个过程中,来自于车辆传感器、感知系统和预测算法。伤害的估计就更难了。主要挑战是量化“伤害”的抽象数量。从伦理的角度来看,尚不清楚应如何量化不同类型的伤害并相互权衡。特别是当涉及到可能造成致命后果的极端事故时,这给我们带来了巨大的困难。例如,我们无法权衡重伤和永久性残疾与死亡的关系。从道德的角度来看,将财产损失与人身伤害进行比较更加困难。使用经济后果(如货币价值)量化伤害的方法需要准确了解事故后果。事实上,在实践中,只能在一定程度上预测事故的严重程度。然而,风险量化和预测的困难给整个风险道德模型的实现带来了困难。基于这一困难,本文作者在考虑碰撞引起的危险的物理特性的基础上,提出了参照物的动能和运动状态的风险分布。该分布的调查将驾驶车辆和其他道路参与者分开考虑,以便后续策略制定可以实施不同的风险偏好。“三原则”在风险估计中的应用根据贝叶斯原则的要求,社会总效益应最大化,并满足功利考虑的需要。这意味着要为所有玩家找到一个具有最高预期收益的策略。但另一方面,该方法只追求整体风险的最小化,不提供任何风险关系信息,不考虑公平性。为了改善这个缺陷,作者还加入了“平等原则”的约束,即要求通过最小化所考虑风险的差异来平均分配风险。而这种平??等原则可能会在没有额外限制的情况下给人们带来意想不到的结果。一个轻伤,一个不受伤”宁愿双双死去。最后,作者还强调了“最大最小化原则”,旨在让决策策略找到使“最大伤害”最小化的解决方案。但是,如果这样单独考虑原理,也有明显的缺陷:简单地强调“可能”最大伤害的最小化,而没有考虑这种可能性的定量比较,这使得一个非常大概率的大伤害可能被认为比一个非常大的伤害要好。大概率小概率造成大危害,在很多情况下,不仅与上述基于概率分析的功利考虑相矛盾,而且可能与人们单纯的道德取向不相容,因此本文提出的三个原则都是系统性缺陷。作者试图通过同时结合三个原则来实现更好的策略。因此,t作者最后提出了基于三大战略因素加权的最终风险量化计算结果。这种权重设置提供了比较不同道德设置的机会。对于个人道德设置,权重可以从反映用户道德直觉的实证研究中得出。将这些见解与法律和道德纪律(例如人的尊严)的基本原则和规则相结合,可以作为使自动驾驶汽车更接近强制性道德设置(在传统意义上,唯一允许和必须采取的行动)的起点).除了考虑风险计算所需的三个原则外,作者还强调了风险分布函数中的时间因素,这需要排除迫在眉睫的风险(通常在算法中概括为局部贪婪策略),以及使用贴现“因素”来量化随时间推移的风险,以便可以强制执行对更直接风险的考虑。