天才在左边,疯子在右边。对于AI来说,由于人们不知道AI是如何判断决策的,在某些场景下,“人工智能”到“人工智障”往往只有一步之遥。破解这个难题的关键在于人工智能技术的可解释性。可解释人工智能的概念对于业界来说既是一个新话题,也是一个老话题。AI发展一路以来,对AI的不信任感也始终如影随形。根本原因是人们在决策过程中不了解人工智能。现阶段,可解释性已成为人工智能的关键需求,但在某些领域除外。机器学习中的AI算法“黑匣子”随着AI成为通用技术,人类一直对AI抱有更高的期望。很多人坚信科幻电影《Her》中的AI机器人可以解释自己的行为来帮助人类做决定,甚至与人类深入交流的场景迟早会出现在人们的日常生活中。当然,这些理想化的场景目前只能存在于科幻作品中。实践中的ExplainableAI在技术和体验上尚未达标,但产业发展已经起步,并迅速成为行业热点。刚刚过去的2021年被业界专家公认为AI的可解释元年,不仅学术界,业界也在积极探索,让AI更加透明和可解释。事实上,人工智能的可解释性、科技伦理等问题已经成为人工智能领域的必经之路。2021年的“十四五”规划也明确强调要完善科技伦理体系。国外主流科技公司很早就建立了自己的内部技术伦理委员会,并积极制定相关的技术解决方案。国内的互联网公司也开始采用类似的做法。比如美团发了两篇文章解释了外卖的相关规则,微博也发布了热门搜索算法的规则。在了解什么是可解释的人工智能之前,我们需要了解一个概念:可解释性。从广义上讲,可解释性是指当我们需要解决一件事或对它做出决定时,我们需要从这件事情中获取足够被理解的信息来帮助我们做出决定。例如,在科学研究中,当科学家面对一项新技术时,需要查阅大量资料,以了解该技术的现状和基本概念,从而指导下一步的研究方向。相反,如果在某些场景下我们无法获得足够的信息,那么对我们来说就是无法解释的。在AlphaGo与柯洁的对战中,AlphaGo被输入了“赢得比赛”的指令,但在比赛过程中,我们不知道下一步是如何思考的原理。具体在机器学习领域,输入数据和输出答案之间的这种不可观察的空间通常被称为“黑匣子”。AI的算法“黑匣子”,有时连开发者都无法很好地理解算法运行的具体细节,这就导致了AI模型的透明性和可解释性。如果这两个问题得不到解决,不仅会影响用户对人工智能应用的信任,还可能带来算法歧视、算法安全、算法责任等方面的问题。可解释人工智能是人工智能不断发展的必然产物。AI可解释性之所以受到关注,主要是因为AI的发展越来越厉害,但也越来越“黑”。它变得越来越实用,其可靠性和应用范围也得到了提高。“在一些重要的应用领域,对AI的可信度、安全性等要求越来越高,可解释性是满足上述要求的认知基础。实际上,机器学习模型通常被认为是不可解释的。深度学习的黑匣子学习;深度学习中使用的神经网络是人类最难理解的部分;偏见(通常基于种族、性别、年龄或位置)一直是训练AI模型的长期风险。此外,由于生产数据与训练数据不同,AI模型性能可能会受到影响甚至降级。这使得持续监控和管理模型以促进AI可解释性变得至关重要。可解释的AI有助于促进最终用户信任、模型可审计性和AI的高效使用,同时也降低了使用AI面临的合规、法律、安全和声誉风险,对于用户来说,AI可以帮助他们做出决策,但也非常有必要了解他们为什么做出这个决定。尤其是在军事、金融安全、医疗检测等领域,如果无法理解AI的决策行为,一旦AI失灵,用户的利益将受到极大损失。对于AI系统开发者来说,AI的可解释性可以帮助他们在AI系统出现问题时,更准确地找到问题根源,节省“一刀切”所需的人力和时间,大大提高开发效率。此外,对于企业来说,需要深刻理解AI的决策原则,有利于保证决策的公平性,维护品牌和企业的利益。除以上几点外,在2018年,欧盟在GDPR(通用数据保护条例)中要求,如果AI算法参与决策,你必须有解释能力。政府机构对用户数据隐私的保护和监管,也让企业和研究机构更加关注可解释的人工智能。“可信”和“可解释性”成为未来人工智能发展的主要方向。AI要模拟人类智能,就需要学习如何像人类一样思考和解释。每个人都有显性知识和隐性知识,其中显性知识是我们后天获得的计算能力和逻辑判断能力,而隐性知识是我们对事物的直觉和主观看法。人们在做决定时,可以有效地将两种知识结合起来做出判断,但是当我们进行解释时,解释必须是明确的,才能被别人理解。现阶段,在深度学习领域,AI只能通过概率模型获取隐性知识,而在其他领域,则有很多模拟显性知识的知识图谱等系统。对于下一步的人工智能开发和应用落地,现阶段最大的挑战是在处理问题和输出结果时如何有效地将显性知识和隐性知识结合起来。目前,国内企业在可解释性AI实践上还比较分散,没有达到系统化的水平,但从整体上看,行业一直在向可解释性方向发展。例如,在医疗保健领域,它可以加快诊断、图像分析和资源优化,提高患者护理决策的透明度和可追溯性,并简化药品审批流程。在金融服务方面,通过透明的贷款和信贷审批流程改善客户体验,加快信用风险、财富管理和金融犯罪风险评估,加快解决潜在投诉和问题,增加对定价、产品推荐和投资服务的信任。在刑事司法中,可以优化预测和风险评估过程。在DNA分析、监狱人口分析、欺诈检测和犯罪预测中使用可解释的AI加速解决问题。当今时代,人们迫切需要可解释的AI,而“负责任”、“可解释”的AI的确会是获得双方信任、满足未来合规要求的基石,但实现这一目标无疑是必须的。路又长又堵。人工智能不应该取代人类的决策,它应该帮助人类做出更好的决策。如果人们不信任人工智能系统的决策能力,这些系统将永远不会得到广泛采用。为了让人类信任人工智能,系统不能把所有的秘密都锁在一个黑盒子里,而可解释的人工智能恰恰提供了这种必要的解释。
