当前位置: 首页 > 科技观察

让AI做决定,我们的社会准备好了吗?

时间:2023-03-19 18:18:42 科技观察

随着技术的加速发展,人工智能(AI)在决策过程中发挥着越来越重要的作用。人类越来越依赖算法来处理信息、推荐某些行为,甚至代表他们采取行动。但是,如果真的用AI来帮助甚至代替我们做决定,尤其是那些涉及主观、道德和伦理的决定,你会接受吗?最近,广岛大学的一个研究小组探索了人类对引入人工智能决策的反应。具体来说,他们探讨了“社会是否准备好接受AI伦理决策?”这个问题。通过研究人机交互。发表了他们的发现。在第一个实验中,研究人员向529名人类受试者展示了司机可能面临的道德困境。在研究人员创建的场景中,汽车司机必须决定是否将他们的汽车撞向一群人或另一群人,而碰撞是不可避免的。即,严重伤害一组人但挽救另一组人生命的事故。实验中的人类受试者必须对汽车司机的决定进行评分,司机可以是人类,也可以是人工智能。有了这个,研究人员旨在衡量人们对人工智能道德决策可能存在的偏见。在他们的第二个实验中,563名人类受试者回答了研究人员提出的一些相关问题,以确定一旦人们成为社会的一部分,他们将如何回应AI伦理决策。在这个实验中,有两种情况。其中一个涉及一个假设的政府,该政府决定允许自动驾驶汽车做出道德决定;另一种情况是让受试者“投票”决定是否允许自动驾驶汽车做出道德决定。在这两种情况下,受试者都可以选择支持或反对技术做出的决定。第二个实验旨在测试将人工智能引入社会的两种替代方式的效果。研究人员观察到,当受试者被要求对人类或人工智能驾驶员的道德决策进行评分时,他们对两者都没有明确的偏好。然而,当受试者被要求对是否应该允许人工智能在道路上做出道德决定有明确的看法时,受试者对人工智能驾驶的汽车有更强烈的看法。研究人员认为,这两个结果之间的差异是由两个因素共同造成的。第一个要素是,很多人认为整个社会不希望人工智能做出道德决定,所以当他们被问及对此事的看法时,他们会受到自己想法的影响。“事实上,当参与者被明确要求将他们的答案与社会答案区分开来时,人工智能和人类司机之间的差异就消失了。广岛大学人文与社会科学研究生院助理教授约翰卡罗伯内特说。第二个要素,在将这项新技术引入社会时是否允许讨论这个话题,各国情况各不相同。政府和拥有强大政府机构、信息和决策权的地区帮助受试者评估人工智能做出道德决策的方式。相比之下,在人们不信任政府且机构薄弱的地区,决策能力恶化了受试者评估AI道德决策的方式。’”卡罗-伯内特说。“我们发现社会害怕人工智能做出道德决定。然而,这种恐惧的根源并不是个人固有的。事实上,这种对人工智能的排斥来自个人认为是社会的认知。”广岛大学大学院人文社会科学研究科教授金子真司说。图|平均而言,人们对人工智能司机的道德决策的评价与人类司机没有什么不同。然而,人们并不希望人工智能在路上做出决定。道德决策因此,当没有明确询问时,人们没有表现出任何对人工智能道德决策有偏见的迹象。然而,当被明确询问时,人们表现出对AI的厌恶。此外,在缺乏关于该主题的讨论和信息的情况下,发达国家对人工智能的接受度有所提高,而在发展中国家则有所恶化。研究人员认为,这种对新技术的排斥主要是由于个人对社会的看法。信念,很可能适用于其他机器和机器人。”因此,重要的是要确定个人偏好如何聚合成社会偏好。此外,正如我们的结果所表明的那样,这些结论也必须因国家而异。”Kaneko说。