当前位置: 首页 > 科技观察

微软开源可解释机器学习工具包lnterpretML

时间:2023-03-15 23:52:59 科技观察

【图片来源:微软研究院博客所有者:微软研究院博客】人类创造人工智能,并在生活中受到人工智能的影响。如果人工智能的行为是可以理解的,那么人类就可以更进一步地利用人工智能。近日,微软研究院发表机器学习可理解性相关文章,雷锋网全文编译如下。当一个人工智能系统能够影响人类生活时,人们了解它的行为是非常重要的。通过了解人工智能系统的行为,数据科学家能够正确调整他们的模型。能够解释模型的行为方式使设计人员能够将此信息传达给最终用户。如果医生、法官或其他决策者信任强化智能系统的模型,他们就能做出更好的决策。更广泛地说,随着模型被更充分地理解,最终用户对人工智能驱动的产品和解决方案的接受度可能会更快,并且可能更容易满足监管机构不断增长的需求。事实上,实现可理解性是复杂的,并且高度依赖于许多变量和人为因素,排除了任何“一刀切”的方法。可理解性是一个前沿的跨学科研究领域,它建立在机器学习、心理学、人机交互和设计的思想之上。多年来,微软研究院一直致力于研究如何创造可理解的人工智能。今天,微软在MIT开源协议下开源了lnterpretML软件工具包。开源地址为https://github.com/Microsoft/interpret,这将使开发人员能够尝试各种方法来解释模型和系统。InterpretML能够执行许多可理解的模型,包括可解释的BoostingMachine(改进了一般的加法模型),以及用于生成对黑盒模型行为或其单独预测的解释的几种方法。通过一些简单的评估可理解性方法的方法,开发人员可以比较不同方法产生的解释,并选择最能满足他们需求的方法。例如,通过检查方法之间的一致性,比较方法可以帮助数据科学家了解在多大程度上信任这些解释。微软期待与开源社区合作,继续开发InterpretML。开源地址为https://github.com/Microsoft/interpret