摘要人工智能(AI)在刑事司法领域发挥着越来越重要的作用。典型应用如风险评估系统(RAI)的部署在美国引发争议——RAI在提高效率的同时,也带来了偏见和不公平的可能。中国将人工智能引入司法,RAI的经验可以提供哪些启示?人工智能(AI)正在全面渗透到社会的各个领域。随着技术的进步,智能技术也为包括公共安全在内的社会问题提供了越来越多的解决方案。特别是在刑事司法领域,人工智能具有多种用途,包括收集和分析证据、预测和预防犯罪、指导司法决策和量刑。在中国,法院的数字化也开始腾飞。最高人民法院院长、院长周强表示,中国法院致力于将现代科技与司法程序相结合。我国司法系统在智能化过程中将越来越依赖算法辅助,这也表明人工智能将能够更直接、更实质地参与司法决策。因此,必须充分了解算法工具的好处和潜在危险,以确保与刑事司法原则的兼容性。1.人工智能在司法决策中的典型应用:美国风险评估系统(RAI)美国的入狱率高于世界上任何其他国家——截至2016年,每38个美国成年人中就有1人在监狱中。降低监禁率和改革刑事司法的压力已将美国推向智能工具。风险评估系统(RAI)使用被告的资料来估计累犯分数。分数将帮助法官决定是否释放被告和指控。例如,在肯塔基州,早在1976年就开始使用风险评分,根据出庭概率分配分数。子风险框架将每个被告标记为低、中或高风险,使法官能够做出更加透明和客观的决定。从理论上讲,RAI旨在为刑事司法带来诸多好处。一方面,如上所述,算法工具在风险评分中采用了明确的清单式标准。肯塔基州于2011年通过了HB463立法,要求在审判前使用风险评分来降低监禁率。如果法官在审判前将哪些被告送进监狱时更加科学,那么监狱人口过剩的经济负担就可以减轻。此外,研究表明,RAI的统计模型比人类决策的执行更一致。由于算法评估标准的透明度,法院能够更好地解释决策背后的理由。因此,越来越多的州,包括处于刑事司法改革前沿的加利福尼亚州,已经转向RAI来满足他们的刑事司法需求。然而,RAI的火爆也带来了热议。其中,RAI的担忧主要有三点。首先,与核心机器学习一样,RAI能够发现数据趋势。但是这些算法是通过使用历史犯罪数据来训练的,这些数据通常会因有偏见的警务和不完整的数据收集(“黑图”)而失真。正如美国数学家凯茜奥尼尔在她的书中所说,当机器学习算法使用有偏见的统计数据时,它会进一步伤害穷人和有色人种,形成恶性循环。因此,RAI的使用可能会复制和放大偏见,从而破坏公平公正的司法系统的原则。其次,RAI的机制提出了群体与个人的问题。正如2016年著名的威斯康星州最高法院案件LoomisvWisconsin中所述,RAI并未提供准确的个人风险评分。相反,风险预测是??基于与集体数据的相似性及其历史趋势比较。MelissaHamilton指出,将基于群体的数据转换为个人评估很容易“有毒”。当不清楚用户将如何解释算法的输出时,RAI的风险评分很容易被误解。因此,找到将风险适当传达给司法系统人员的形式至关重要。最后,尽管RAI能够识别再犯的可能性,但这种识别仍然是一种未经证实的相关性。RAI无法证明相关性是否对应于真正的因果关系。例如,如果低收入群体与高累犯率相关,则这种相关性不能作为低收入导致犯罪的证据。RAI并非旨在识别犯罪中的社会经济因素,但如果不仔细解释,其输出很可能给人以因果关系的错觉。同样,相关性必须被人类用户理解并赋予意义,但人类可能会带来个人的政治取向和价值观并强加认知偏见。为了使RAI评估更具信息性,可以使用贝叶斯优化来指示风险评分的确定性。然而,确定性因素在RAI评估结果中的重要性仍然是一个模糊点。二。中国司法系统中的人工智能虽然RAI远非刑事司法的灵丹妙药,但此类工具确实为了解人工智能对司法系统的影响提供了重要见解。虽然我国还没有使用像RAI这样的风险评估系统,但AI已经应用于很多公共安全相关领域,包括人脸识别、DNA分析和档案数字化等。2017年以来,贵阳市通过大数据办案系统共办理刑事案件419件、480人次。同时,与去年相比,办案时间缩短了30%,证据不足不抓捕率也下降了28.8%。显然,大数据和人工智能为司法系统做出了一定的贡献。但是,我国的司法情报还处于起步阶段,存在不足。例如,一线办案人员指出“简单的不用,复杂的不敢用”的问题。正如最高人民法院院长周强所言,司法智能化的宏愿可以体现我国刑事司法未来的规划。参照十八届四中全会的宗旨,人工智能有助于实现“统一证据标准”和“杜绝冤假错案”的目标。虽然预测性AI提高了客观性和效率,但算法偏差、数据错误和不明确的相关性都会造成损失。因此,需要找到减轻算法工具缺点的策略。这些策略可以指导所有司法系统和政策制定者找到适当的方法,更好地在刑事司法中使用人工智能。在这方面,RAI现有的经验可以提供相关的见解。3.如何应对算法工具带来的隐患首先,需要建立法官、算法程序和研发人员之间的责任分配框架。人工智能责任一直是各个领域的一个长期问题。在人工智能对司法决策影响越来越大的今天,明确司法责任就显得尤为重要。在LoomisvWisconsin案中,COMPAS评估系统使用的算法被视为商业机密,因此无法公开。这将加剧分配评估错误或技术漏洞责任的难度。为了司法领域的公平正义原则,任何司法系统都必须能够对错误的案件判决有明确的责任,并且在开发者和用户之间有明确的责任划分。此外,随着人工智能未来可能获得法人实体,也必须对智能系统制定适当的惩罚措施,以确保人工智能在刑事司法中的问责制。其次,根据自然正义的核心原则,任何案件都需要能够以充分的理由解释其决策逻辑。因此,RAI和类似工具必须提供一定程度的透明度,以确保所有相关方充分了解风险评估的背景。这也意味着需要对用于训练RAI的数据进行评估,以确定训练数据与当前案例的兼容性,以及算法输出是否会不公平地对待某些社会群体。这种全面的评估还需要数据科学家与特定领域的专家合作,以更好地解释RAI的输出。此外,除了减轻RAI算法偏差的措施外,人类的认知偏差也可能产生负面影响。亚历克斯·奥尔布赖特(AlexAlbright)对肯塔基州RAI数据的研究揭示了一个令人担忧的趋势——法官更有可能否决建议黑人被告免除保证金的算法输出。因此,有必要了解不同的司法管辖区如何解释RAI的输出。如果要在刑事司法中负责任地部署人工智能工具,不仅需要克服算法偏见,还必须消除隐性的人为偏见。法官可能需要接受更好的培训,了解如何最好地理解RAI的含义。同时,可以要求法官对否决RAI的建议做出详细解释。除了打击算法偏见的措施外,识别人类偏见对于人工智能在司法系统中的应用也至关重要。最后,政策制定者应持续监控智能工具的使用结果,评估其性能,并将结果公开。不同的司法系统和行为者可能对人工智能在司法决策中的应用表现出不一致和意想不到的反应。为了预测和管理这些可能性,政策制定者应与研究机构和市场参与者合作,以更好地了解人工智能导致的司法行为变化以及算法对刑事司法的长期影响。4.剩余的评论和结论尽管RAI等工具提供了各种好处,但它们的缺点也表明人类决策仍然是不可或缺的。特别是在重要和复杂的情况下,应对智能工具使用的数据进行仔细评估,以识别算法或人为偏差的存在,并保留因情况而异的相关要素。未来人工智能可能对司法决策产生更实质性的影响,甚至取代人类决策,但法律体系的演化,如不断变化的法律和社会规范,始终需要人类的深度参与。因此,算法辅助决策的目的不应过于集中在一劳永逸的解决方案上。相反,重点应该放在通过有效的人机协作最大化人工智能的积极功能上,以创建一个更高效、更公平的刑事司法系统。
