当前位置: 首页 > 科技观察

“可解释的”人工智能正在提高金融领域的信任度

时间:2023-03-14 08:10:40 科技观察

人工智能正在金融服务行业证明其价值,如今其应用范围从识别欺诈和打击金融犯罪到帮助客户提供创新的数字体验。然而,这种从传统的基于规则的模型到利用机器学习模型进行决策的演变也为金融机构带来了新的挑战。如果没有适当的步骤来确保机器学习模型做出的决策的可信度,许多组织可能会在不知不觉中面临声誉和财务风险。使用缺乏“可解释性”和透明性的“黑匣子”人工智能技术,将使组织无法了解决策的原因和过程,更不用说何时决策出错了。人工智能应用的目标是输出决策判断。随着人们在日常生活中越来越依赖人工智能,能够理解决策过程变得越来越重要。在这种情况下,“可解释”人工智能的概念应运而生。所谓“可解释的人工智能”,是指人类可以通过动态生成的图表或文字描述,轻松理解人工智能技术进行决策的路径。人工智能越容易解释,人类就越容易理解为什么做出某些决定或判断。如今,金融机构正处于十字路口。IBM和MorningConsult的一项新研究发现,金融行业44%的组织表示,专业知识和技能有限是他们成功部署AI技术的最大挑战。在整个大流行期间,采用新技术来提高运营效率并使金融机构与竞争对手区分开来的压力越来越大。随着越来越多的组织部署AI技术,重要的是要确保结果的公平性、增加对AI决策的信任以及扩展AI部署以优化其业务运营。金融业如何提高对人工智能的信任度?首先,在任何金融机构开始考虑将AI集成到其业务运营中之前,他们必须首先了解道德和TrustworthyAI技术。金融服务公司已经意识到这一点,因为85%的IBM《2021年全球人工智能采用指数报告》受访者表示,能够解释人工智能如何做出决策对他们的业务很重要。金融机构应该能够清楚地定义“公平”在其行业中的真正含义以及如何监控公平性。同样,组织也应该清楚他们作为一个企业实体今天所处的位置,以及哪些政策反映了这一点。有了这第一步,金融机构就可以开始调查AI模型的特定用例。例如,考虑AI模型在各种信用风险场景中的表现。哪些参数会影响其决策?它是否不公平地将风险与人口统计联系起来?所有这些要素都需要仔细考虑,并且在AI操作的整个生命周期中——从构建和验证模型,到部署和使用它们——牢记这一点。今天,组织也可以依靠各种相关平台来帮助指导这一过程,确保模型不偏不倚(在政策规定的公平范围内),同时为监管者提供可视化和解释决策的能力。然而,尽管市场上存在这些工具,63%的受访金融服务组织表示,并非适用于所有数据环境的AI治理和管理工具是部署可信赖的AI模型的障碍。对人工智能模型更有信心后,金融机构可以减少在繁重任务上花费的精力,而专注于更高价值的工作。例如,欺诈检测是当今金融服务中AI的常见用例,但误报率仍然很高。如果AI系统能够解释为什么它认为一个案例是欺诈,更重要的是,如果它能够证明它不会系统地偏袒某个群体,那么人类工作者就可以花更少的时间验证结果,而是花更多的时间来交付更高价值的工作。初创企业是否需要采取与传统金融机构不同的方法?归根结底,无论您是传统金融机构还是初出茅庐的初创企业,都需要对确保公平、道德和透明的AI技术给予同等关注。最显着的区别是传统金融机构已经建立了模型风险管理实践,通常适用于传统的基于规则的模型。此外,传统金融机构已经拥有适当的技术和流程,因此改变方法往往更具挑战性。然而,无论使用何种开发和部署工具,都必须考虑如何扩展现有模型风险管理实践以支持AI/ML模型。许多金融科技初创公司可能不会考虑对这项技术的现有投资,这也让他们有更多的自由来选择具有内置功能的一流开发、部署和监控平台。人工智能在金融领域的未来这场大流行病促使那些仍将投资人工智能视为“冒险之举”的组织认识到人工智能技术在提高效率、减轻远程工作者压力和许多其他好处方面的重要性。目前,28%的金融行业公司表示他们正在积极部署人工智能作为其业务运营的一部分。尽管人工智能技术的渗透速度非常快,规模也很大,但44%的企业表示仍处于探索人工智能解决方案的初级阶段,22%的企业目前没有使用或探索使用人工智能解决方案。这意味着目前,大多数金融公司都在开发概念验证(PoC)或分析其数据以供未来增长和使用之用。随着我们进入“后大流行”时代,组织需要比以往任何时候都更加警惕,以确保他们的AI技术以“负责任”的方式运行,而不是助长系统性不公正。世界各国政府即将出台的法律法规也将继续关注组织,尤其是金融行业如何负责任地使用该技术。总而言之,要获得对人工智能决策的广泛信任,根本没有捷径可走,但组织可以从采取持续、深思熟虑的步骤来解决偏见和不公正并提高可解释性开始。