当前位置: 首页 > 科技观察

当人工智能伤害到人时,谁来承担责任?

时间:2023-03-15 23:41:54 科技观察

就像一枚硬币的两个面。技术进步在方便了人们生产生活的同时,也带来了一个严峻的现实问题——当机器足够智能时,谁应该为它对人类造成的无法弥补的伤害负责?虽然像科幻电影中那样机器人“背叛”攻击人类的场景短期内不会出现,但机器种类繁多。现阶段,人类生命安全最受智能机器威胁的场景,恐怕就是交通场景了。2018年,发生了世界上第一起自动驾驶汽车撞到行人的致命事故。美国时间3月18日22:00,在亚利桑那州坦佩市,一辆优步自动驾驶汽车与一名过马路的行人相撞,49岁的女性无家可归者伊莱恩·赫茨伯格在被送往医院后不治身亡。坦佩警方发言人表示,初步调查发现,Uber自动驾驶汽车在事发时处于4级自动驾驶模式,并且在最高时速35英里/小时的道路上以38英里/小时的速度行驶,没有及时刹车。.与此同时,驾驶座上的安全驾驶员没有收到信号,直到发生碰撞后才意识到发生了事故。9月,马里科帕县大陪审团裁定优步自动驾驶汽车的安全驾驶员犯有过失杀人罪。由此,本案对后世的类似判决具有里程碑式的借鉴意义。事实上,当人工智能导致人受伤或死亡时,要确定过错责任并不是一件容易的事。如果人工智能时而失控时而正常,什么时候能怪人类,什么时候又能怪人工智能?今年10月2日,一篇论文《疏忽与人工智能的人类使用者》(NegligenceandAI'sHumanUsers)关注了这个问题。在论文中,加州大学洛杉矶分校助理教授AndrewSelbst发现人工智能与现有的需要监管机构介入的人为疏忽法产生冲突。Selbst说,Uber案例有两种可能的情况。第一,法官或陪审团可能会认为将责任推给与半自动车辆互动的人是不合理的;第二,责任可以放在对自动化或自治系统具有有限控制的人类行为者身上。这就是文化人类学家马德琳·埃利什(MadeleineElish)所说的“道德冲突区”——当机器和人类被同时考虑时,但法律未能解释机器的智能,人类就要承担责任。Selbst写道:“如果疏忽法要求的护理标准高于人类所能达到的标准,那么即使在普通人类无法避免危险的情况下,它也会将责任推给人类操作员。”“虽然优步案例似乎指向‘道德冲突区’的方向,但也很容易想象相反的情况——发现因为普通人无法及时做出反应或永远保持警惕,所以不这样做是合理的。说到底,人工智能带来的是不确定性。根据Selbst的说法,法律学者倾向于区分完全自动驾驶汽车和与人类合作的半自动驾驶机器,例如Uber事故中的车辆。虽然全自动驾驶汽车或通用人工智能(AGI)可能会将责任转移给硬件制造商或人工智能系统,但当人类使用人工智能根据预测、分类或评估做出决策时,答案就不太清楚了。Selbst预测,这将给企业、政府和社会带来新的挑战。今天,绝大多数人工智能的出现都是为了增强人类的决策能力。例如,从法官用来评估多项犯罪的算法,到医疗专业人员用来制定医疗计划或诊断的人工智能工具。这些系统包括检测人工智能中的医学图像模型,以帮助专业人士诊断乳腺癌、肺癌和脑癌等疾病。Selbst说,虽然技术是推动疏忽法发生变化的关键因素,但正是人类和人工智能相互依赖做出决策的方式让人工智能与众不同。使问题更加复杂的是,人类可能会在没有审查的情况下接受自动决策,如果他们因过多的通知而感到警觉疲劳而忽略人工智能,或者依靠人工智能来识别过于复杂的数据模式,Selbst说,在共同决策的世界中-由人类和人工智能系统制造,政府需要考虑改革,让疏忽法有机会赶上快速新兴的技术。“如果社会认为人工智能的好处太大而不能搁置,那么我们可能需要一种新的监管模式来补偿使用人工智能的受害者,而这种模式应该是一种不需要找错的模式。这可能是严格责任,可能是广义保险,也可能是事前监管。’”报纸上写道。为了解决这个问题,已经开发了各种模型,例如AndrewTutt的“FDAforalgorithm”,这是一个与FDA在调查药物方面以非常相似的方式运作的机构。还有一种类似于环境影响评估的算法评估的想法,作为加强监督和公开披露的一种方式。“最终,人类的选择、行动和结果之间的联系会因在AI的决策和结果之间插入难以捉摸的、非直觉的、统计派生的、通常是专有的代码层而受到损害。测试,”论文中写道。“虽然可能有一种方法可以使用解释和透明度要求将某些决定与其结果联系起来,但疏忽需要一系列外部干预才能真正有机会为使用人工智能造成的伤害提供补救。”在未来的范式转变发生并且标准进一步落后之前,法律标准需要一些时间才能赶上人工智能的进步。该论文还探讨了当算法偏见在危害中发挥作用时会发生什么的问题。回到自动驾驶汽车问题,研究表明计算机视觉系统在检测白人行人方面比黑人行人做得更好。接受使用这个系统可以整体减少交通事故的发生,但同时对黑人行人也不是很友好。Selbst说,如果没有监管干预,人工智能有可能使某些群体的不利结果正常化,同时拒绝他们任何追索权。这有可能会放大人们在遇到算法偏见或在线受到伤害时已经感受到的无助感。“令人担忧的是,虽然人工智能可能成功地减少伤害的总数,但它不会消除伤害,甚至不会剥夺受害者寻求帮助的能力,”该论文写道。人工智能行业的保密性是问责制的主要障碍。疏忽法通常会随着时间的推移而演变,以反映对什么是合理行为的共同定义。但企业保密很可能会使造成危害的AI缺陷不为公众所知。人工智能的快速发展进一步加剧了这种情况,人工智能有可能压倒过失法或侵权法的变化。“由于保密,我们对各种人工智能公司产品中的错误和漏洞知之甚少。在这种情况下,公众不可能就什么样的失败是合理的或不合理的做出任何结论,”该论文称。