随着人工智能(AI)变得越来越复杂并在社会中得到广泛采用,最关键的过程和方法集之一是可解释的AI,有时也称为XAI。可解释的人工智能可以定义为:一组帮助人类用户理解和信任机器学习算法结果的过程和方法。您可以猜到,这种可解释性非常重要。由于AI算法控制着如此多的领域,这带来了偏见、错误算法和其他问题的风险。通过可解释性实现透明度,世界可以真正利用人工智能的力量。可解释的人工智能,顾名思义,帮助描述人工智能模型、它的影响和潜在的偏见。它还在描述模型的AI驱动决策过程的准确性、公平性、透明度和结果方面发挥作用。今天的人工智能驱动的组织应该始终采用可解释的人工智能流程,以帮助在生产中建立对人工智能模型的信任和信心。可解释的AI也是在当今人工智能环境中成为负责任企业的关键。由于当今的人工智能系统非常先进,人类通常会执行计算来追溯算法是如何得出结果的。这个过程变成了一个“黑匣子”,这意味着它无法被理解。当这些无法解释的模型直接从数据中开发出来时,没有人能理解发生了什么。通过使用可解释的AI来了解AI系统的工作原理,开发人员可以确保系统正常工作。它还可以帮助确保模型符合监管标准,并为模型受到挑战或改变提供机会。AI和XAI之间的差异一些关键差异有助于区分“常规”AI和可解释的AI,但最重要的是,XAI实现了特定的技术和方法,以帮助确保ML过程中的每一步都是可跟踪和可解释的。相比之下,传统的人工智能通常使用机器学习算法来得到结果,但无法完全理解算法是如何得到结果的。在传统人工智能的情况下,很难检查准确性,从而导致失去控制、问责制和可审计性。ExplainableAI的好处任何希望采用ExplainableAI的组织都有很多好处,例如:更快的结果:ExplainableAI使组织能够系统地监控和管理模型以优化业务成果。可以持续评估和改进模型性能,并对模型开发进行微调。降低风险:通过采用可解释的AI流程,您可以确保AI模型是可解释和透明的。可以管理法规、合规性、风险和其他需求,同时最大限度地减少手动检查的开销。所有这些还有助于降低意外偏差的风险。建立信任:可解释的AI有助于建立对生产AI的信任。AI模型可以快速投产,保证可解释性,简化模型评估流程,提高透明度。可解释的AI技术有一些XAI技术是所有组织都应该考虑的,主要有三种方法:预测准确性、可追溯性和决策理解。第一种方法,即预测准确性,是在日常运营中成功使用人工智能的关键。可以运行模拟并将XAI输出与训练数据集中的结果进行比较,这有助于确定预测的准确性。执行此操作的一种更流行的技术称为本地可解释模型独立解释(LIME),这是一种通过机器学习算法解释分类器预测的技术。第二种方法是可追溯性,这是通过限制决策的制定方式并为机器学习规则和功能建立更窄的范围来实现的。最常见的可追溯性技术之一是DeepLIFT,即深度学习重要特征。DeepLIFT将每个神经元的激活与其参考神经元进行比较,同时展示每个激活的神经元之间的可追踪链接。它还显示了彼此的依赖关系。第三种方法是决策理解,它与前两种方法的不同之处在于它以人为本。决策理解涉及教育组织,尤其是与人工智能打交道的团队,以便他们能够理解人工智能如何以及为何做出决策。这种方法对于建立对系统的信任至关重要。可解释的AI原则为了更好地理解XAI及其原则,隶属于美国商务部的美国国家标准研究院(NIST)提供了可解释AI的四项原则的定义:AI系统应为每个输出、支持或推理提供证据。人工智能系统应该给出用户可以理解的解释。说明应准确反映系统用于达到其输出的过程。人工智能系统应该只在其设计的条件下运行,并且当它对结果缺乏足够的信心时不应提供输出。这些原则可以进一步组织为:有意义的:为了实施有意义的原则,用户应该理解所提供的解释。这也意味着不同类型的用户可能对AI算法有多种解释。例如,在自动驾驶汽车的情况下,一种解释可能是这样的……“人工智能将路上的塑料袋分类为石头,因此采取行动避免撞到它。”虽然此示例适用于驱动程序,但对于希望纠正该问题的AI开发人员来说并不是很有用。在这种情况下,开发人员必须了解发生错误分类的原因。解释准确性:与输出准确性不同,解释准确性涉及AI算法准确解释它是如何到达输出的。例如,如果贷款审批算法根据申请人的收入来解释决定,而实际上它是根据申请人居住的地方做出的,那么这种解释将是不准确的。知识约束:人工智能的知识约束可以通过两种方式实现,其中涉及超出系统专业知识的输入。例如,如果你建立一个系统来分类鸟类,给定一张“苹果”的图片,它应该能够解释输入不是鸟。如果给系统一张模糊的图片,它应该能够报告它无法识别图像中的鸟,或者它的识别置信度很低。数据在可解释人工智能中的作用可解释人工智能最重要的组成部分之一是数据。根据谷歌的说法,关于数据和可解释的人工智能,“通过底层训练数据和训练过程,以及由此产生的人工智能模型,可以最好地理解人工智能系统。”这种理解依赖于将经过训练的AI模型映射到依赖于其在精确数据集上进行训练的能力,以及仔细检查数据的能力。为了增强模型的可解释性,关注训练数据很重要。团队应确定用于训练算法的数据来源、获取数据的合法性和道德规范、数据中的任何潜在偏差,以及可以采取哪些措施来减轻任何偏差。数据和XAI的另一个关键方面是应排除与系统无关的数据。为了实现这一点,不相关的数据不得包含在训练集或输入数据中。谷歌推荐了一套实现可解释性和问责制的实践:计划选择以追求可解释性将可解释性视为用户体验的核心部分设计可解释的模型选择指标以反映最终目标和最终任务了解训练解释模型的广泛测试与模型用户沟通以确保人工智能系统按预期工作。通过遵循这些推荐的做法,组织可以确保实施可解释的人工智能。这对于当今环境中任何人工智能驱动的组织来说都是关键。
