当前位置: 首页 > 科技观察

ExplainableAI(XAI)的六大优秀Python框架推荐_0

时间:2023-03-12 01:53:25 科技观察

AI就像一个黑盒子,自己做决定,但人们不知道为什么。建立一个AI模型,输入数据,然后输出结果,但是有一个问题我们无法解释为什么AI会得出这样的结论。它需要理解AI如何得出某个结论背后的原因,而不是仅仅接受没有上下文或解释的输出。可解释性旨在帮助人们理解:它是如何学习的?学到了什么?为什么它会针对特定输入做出这样的决定?决策靠谱吗?在这篇文章中,我将介绍6个用于解释性的Python框架。SHAPSHapley加法解释(SHapleyAdditiveexplanation)是一种解释任何机器学习模型输出的博弈论方法。它使用博弈论中的经典Shapley值及其相关扩展将最佳信用分配与本地解释联系起来(有关详细信息和引用,请参阅论文)。数据集中每个特征对模型预测的贡献由Shapley值解释。Lundberg和Lee的SHAP算法最初于2017年发布,已被许多不同领域的社区广泛采用。使用pip或conda安装shap库。#installwithpippipinstallshap#installwithcondacondainstall-cconda-forgeshap使用Shap库构建瀑布图使用Shap库构建Beeswarm图使用Shap库构建部分依赖图LIME。它可以帮助解释机器学习模型正在学习什么以及它们为什么以某种方式进行预测。Lime目前支持对表格数据、文本分类器和图像分类器进行解释。了解模型为何以这种方式进行预测对于调整算法至关重要。在LIME的解释的帮助下,可以理解为什么模型以某种方式表现。如果模型没有按计划执行,很可能是在数据准备阶段犯了错误。使用pip安装pipinstalllimeLIMEBeeswarmgraphbuiltwithLIMEBeeswarmgraphbuiltwithLIMEShapash“Shapash是一个Python库,它使机器学习对每个人都易于解释和理解。Shapash提供了多种类型的可视化,显示每个人都可以理解的清晰标签。数据科学家们可以更轻松地理解他们的模型并分享结果。最终用户可以通过最标准的总结来了解模型是如何做出判断的。“交互性和漂亮的图表对于表达包括故事、见解和模型在内的数据发现至关重要。业务和数据科学家/分析师呈现AI/ML结果并与之交互的最佳方式是将它们可视化并将它们放在网络中.Shapash库可以生成交互式仪表盘,收集了很多可视化图表,跟shape/lime的可解释性有关,可以使用SHAP/Lime作为后端,也就是说他只提供更好看的图表,使用Shapash构建特征贡献图使用Shapash库创建的交互式仪表板使用ShapashInterpretML构建的本地解释图InterpretML是一个开源Python包,它为研究人员提供机器学习可解释性算法。InterpretML支持训练可解释模型(玻璃盒)和解释现有的ML管道(黑盒)。InterpretML演示两种类型的可解释性:玻璃盒模型-机器学习模型设计可解释性(例如:线性模型、规则列表、广义加性模型)和黑盒可解释性技术——用于解释现有系统(例如,部分依赖、LIME)。使用统一的API并封装多种方法,内置,可扩展的可视化平台,该软件包使研究人员能够轻松地对可解释性算法进行地面比较。InterpretML还包括ExplanationBoostingMachine的第一个实现,这是一个功能强大、可解释的玻璃盒模型,可以像许多黑盒模型一样准确。使用InterpretML构建的部分解释的交互图GlobalExplanationGraph使用InterpretMLELI5构建的ELI5是一个Python库,可以帮助调试机器学习分类器并解释它们的预测。目前支持以下机器学习框架:scikit-learnXGBoost、LightGBMCatBoostKerasELI5解释分类或回归模型主要有两种方法:检查模型参数并解释模型如何全局工作;检查模型的个体预测并解释是什么模型做出这样的决定。UsestheELI5librarytogenerateglobalweightsUsestheELI5librarytogeneratelocalweightsOmniXAIOmniXAI(OmniexplainedAI的简称),是Salesforce最近开发并开源的一个Python库。它提供了全方位的可解释人工智能和可解释机器学习能力,解决了实践中机器学习模型生成中需要判断的几个问题。对于需要在ML过程的各个阶段解释各种类型的数据、模型和解释技术的数据科学家、ML研究人员,OmniXAI希望提供一个一站式的综合库,使可解释的AI变得容易。下面是OmniXAI提供的与其他类似库的对比