当前位置: 首页 > 科技观察

唯一的《可解释机器学习》中文书来了:复旦研究生翻译,原作者点赞

时间:2023-03-15 17:20:11 科技观察

新冠疫情的出现,让很多AI医疗技术浮出水面。然而,人工智能一直存在黑匣子问题。如果人工智能不能解释这个过程,我们怎么能放心它可以诊断病人呢?而且很少有关于机器学习中可解释问题的书籍。近日,复旦大学研究生朱明超将一本珍本《Interpretable Machine Learning》(InterpretableMachineLearning)翻译成中文。本书最初由慕尼黑大学的ChristophMolnar博士历时两年完成。全书250页,是唯一系统介绍可解释机器学习的书籍。朱铭超近期完成了本书的翻译校对工作,并已在GitHub页面开源。Zhu在翻译过程中与原作者多次讨论,中文版也是ChristophMolnar本人在推特上推荐的。“可解释”是本书的中心主题。作者认为,可解释性是机器学习乃至日常生活中非常重要的问题。推荐给机器学习从业者、数据科学家、统计学家和任何有兴趣使机器学习模型可解释的人阅读。《可解释的机器学习》本书共包含7章:第1章:前言第2章:可解释性第3章:数据集第4章:可解释模型第5章:模型无关方法第6章:基于样本的解释第7章:水晶球Molnar说尽管数据集和黑盒机器学习解决了很多问题,但这并不是最好的使用姿势。现在模型本身取代了数据作为信息的来源,但可解释性可以提取模型捕获的额外信息。当我们的日常生活充满机器和算法时,还需要可解释性来提高社会接受度。毕竟,如果连科学家都无法研究“黑匣子”,普通人又怎么能完全相信模型做出的决定呢?本书的重点是机器学习的可解释性。您可以从本书中学习简单的、可解释的模型,例如线性回归、决策树和决策规则。后面的章节着重于解释黑盒模型的通用模型无关方法,例如特征重要性和累积局部效应,并解释使用Shapley值和LIME的单实例预测。对各种解释方法进行了彻底的解释和批判性的讨论。它们是如何工作的?优缺点都有什么?如何解释他们的输出?本书使您能够选择并正确应用最适合您的机器学习项目的讲解方法。本书结合各种现实生活中的例子介绍相关概念,同时配备参考链接,帮助读者进一步学习。另外,朱老师一直坚持在GitHub上翻译Goodfellow的《机器学习》,并且还在翻译中加入了自己的Python代码供参考。有兴趣的同学也可以顺便参考一下。最后附上本书《可解释机器学习》的项目地址:https://github.com/MingchaoZhu/InterpretableMLBook