近年来,人工智能发展迅速,作为一种强大的创新工具被广泛应用于各行各业的无数用例中。然而,大的责任往往需要大的能力。得益于人工智能和机器学习,反欺诈技术变得比以往任何时候都更加精准和进步。实时评分技术使企业领导者能够立即发现欺诈活动。然而,使用AI-ML来推动决策制定也引发了对透明度的担忧。而且,当ML模型出现在高风险环境中时,对可解释性的需求就出现了。随着机器做出的关键决策数量不断增加,可解释性和可理解性变得越来越重要。根据技术研究员蒂姆米勒的说法,可理解性是人类能够理解为什么做出决定的程度。因此,开发ML模型的可解释性至关重要,这有助于制定可信赖的自动化解决方案。开发人员、消费者和领导者都应该了解欺诈预防决策的含义和过程。但是参数稍微多一点的机器学习模型对于大多数人来说是很难理解的。然而,可解释人工智能研究界多次表示,得益于可理解??性工具的发展,黑盒模型不再是黑盒。在这些工具的帮助下,用户可以理解并更加信任用于做出重要决策的ML模型。事物的SHAPSHAP(SHapleyAdditiveexPlanations)是当今最常用的与模型无关的解释工具之一。它从合作博弈中计算Sharply值,平均分享特征的影响。当我们使用集成方法来打击基于表格数据的欺诈时,SHAP的TreeExplainer算法提供了在多项式时间内获得局部解释的机会。使用此工具,只能进行近似。与基于神经网络的解释相比,这是一个巨大的进步。白盒一般是指计算欺诈分数的规则引擎。本质上,黑盒和白盒产生不同的结果,因为黑盒根据机器从数据中学到的东西产生结果,而白盒根据预定义的规则产生分数。基于这些差异,我们可以双向选择。例如,根据黑盒模型发现的欺诈循环调整规则。结合SHAP的黑盒测试可以帮助我们了解模型的全局行为并揭示用于检测欺诈活动的模型的主要特征。同时,它还可以揭示模型中不良的偏差。例如,模型可能会歧视特定人群。它通过全局模型解释来检测此类情况,从而防止发生不准确的预测。此外,它还可以帮助我们理解模型做出的个别预测。在ML模型调整期间,数据科学家可以独立观察每个预测并相应地对其进行解释。它的特征贡献可以帮助我们感知模型在做什么,我们可以从这些输入中进一步开发它。通过利用SHAP,最终用户不仅可以获得模型的基本特征,还可以了解每个特征(在哪个方向)如何影响模型输出欺诈概率。信心因素最后,在SHAP的帮助下,可以通过获得对成功模型的信任来获得客户的信心。一般来说,如果我们了解产品的工作原理,那么我们就会对它更有信心。人们不喜欢他们不理解的东西。借助解释工具,我们可以深入了解黑匣子,更好地理解和信任它。并且,通过了解模型,我们还可以对其进行持续改进。InterpretableBooster(EBM)是使用SHAP梯度提升ML模型的替代方法。它是InterpretML(微软的人工智能公司)的旗舰产品,也就是所谓的玻璃盒子。GlassBox这个名字来源于这样一个事实,即由于其结构,它的本质是可以解释的。根据原始文档,“EBM通常与最先进的黑盒模型一样准确,同时保持完全可解释性。虽然EBM的训练速度比其他现代算法慢,但它们非常紧凑且预测速度快。”“LocalInterpretableModels-ModelAgnosticExplanation(LIME)也是一个很好的工具,可用于黑盒解释。但是,它更受非结构化数据模型的欢迎。通过利用上述工具和透明数据点,组织可以自信地做出决策。所有利益相关者都必须知道他们的工具如何产生最佳结果。了解黑盒ML和与之相关的各种技术可以帮助组织更好地了解他们如何得出有助于实现业务目标的结果。评论人类众生,未知往往是可怕的,更不可信任。AI-ML驱动决策的算法模型就像一个“黑匣子”,我们只能了解其结构,却无法洞悉其运行原理,更不用说判断其结果的可靠性了,尤其是在防欺诈的高风险环境下,AI和ML技术的应用变得更加困难。可解释性工具让“黑匣子”逐渐透明化,很大程度上打消了用户的疑虑和顾虑,同时也为“黑匣子”自身的发展创造了条件。
