当前位置: 首页 > 科技观察

理解AI:为什么要寻求AI系统的可解释性?

时间:2023-03-19 23:26:34 科技观察

本文转载自公众号《核心阅读》(ID:AI_Discovery)。也许这是你在人工智能出现之前第一次听到“可解释”这个形容词,但你必须理解它的含义。可解释人工智能(XAI)是指构建人工智能应用程序的技术和方法,以便人类能够理解他们做出某些决定的原因。换句话说,如果我们能够从一个人工智能系统中得到关于其内部逻辑的解释,那么这个系统就可以被认为是一个可解释的人工智能系统。可解释性是人工智能领域初露锋芒的新属性。首先,让我们深挖这个问题的技术根源。毫无疑问,人工智能是改善生活的增强剂,科技的进步让人们更容易获得更好的服务。技术是我们生活中不可或缺的一部分,无论您喜欢与否,它对生活的影响只会越来越大。继计算机和互联网之后,人工智能再次改变了我们的生活。从50、60年代在数学领域的艰苦尝试,到1990年代的专家系统,再到现在人类在AI领域的成就——你可以坐上自动驾驶汽车,用谷歌翻译来与外国人交流,使用各种应用程序润饰图片,使用智能推荐算法找到最好的餐厅等等。毫无疑问,人工智能对我们生活的影响正在逐渐加大,成为生活中不可或缺的一部分。但与此同时,人工智能系统非常复杂,普通用户很难理解它们是如何工作的。我敢肯定只有不到1%的谷歌翻译用户知道它是如何工作的,但我们仍然信任这个系统并广泛使用它。但我们应该知道AI系统的路径,或者至少,能够在必要的时候获取有关它的信息。过于关注准确性数百年来,数学家和统计学家一直在研究线性回归、决策树和贝叶斯网络等传统机器学习算法。这些算法直观且发展完善,基于任何这些传统算法的决策都非常容易解释,但其精度非常有限。因此,我们的传统算法虽然具有高度可解释性,但取得的成功有限。在McCulloch-Pitts神经元之后,一切都发生了变化,这一发展导致了深度学习领域的诞生。深度学习是人工智能的一个子领域,专注于使用人工神经网络复制大脑中神经元的工作。得益于强大的计算能力和优化的开源深度学习框架,我们能够高精度地构建复杂的神经网络。AI研究人员正在竞相实现尽可能高的准确度。这些研究催生了许多优秀的人工智能产品,但它们也有其缺点——可解释性低。神经网络极其复杂,可以用数十亿个参数构建。例如,OpenAI革命性的NLP模型GPT-3拥有超过1750亿个机器学习参数,从如此复杂的模型中得出任何推论都是一个挑战。机器学习算法的准确性VS可解释性如图所示,与深度学习模型相比,使用传统算法会使AI开发人员付出大量成本。随着模型准确性的提高,其可解释性变得越来越低效。但我们比以往任何时候都更需要可解释性。原因如下:(1)越来越多的人工智能系统被用在敏感领域世界日新月异,变化之快超乎你的想象。还记得上世纪用步枪进行的战争吗?人工智能无人机现在能够在没有人为干预的情况下杀死任何人。一些军队已经具备实施这些系统的能力,他们担心无法解释的结果,他们不想依赖一些他们不知道其工作原理的系统。事实上,DARPA已经有一个正在进行的XAI项目。再比如自动驾驶汽车,特斯拉已经实现了自动驾驶。这对司机来说是莫大的福气,但也带来了莫大的责任。当汽车面临道德困境时,它会怎么做?在这种情况下,它必须选择两害相权取其轻。自动驾驶汽车应该牺牲狗的生命来拯救路人吗?AI系统的社会影响持续增长,我们需要了解它们如何在一般情况下以及在特定事件中做出决策。(2)人工智能的指数级发展可能会威胁到人类的生存《终结者》很多人都看过机器如何拥有自我意识并可能毁灭人类的电影。AI如此强大,既可以帮助人类成为多行星物种,也可以像世界末日一样毁灭人类。研究表明,超过30%的人工智能专家认为,实现人工智能的后果不会更糟,只有最坏。防止灾难性后果的最有力武器是了解人工智能系统的工作路径,以便可以进行制衡。来源:unsplash(3)解决关于人工智能的争论需要证据和解释随着过去两个世纪人权和自由的发展,现有的法律法规在敏感领域需要一定程度的可解释性。法律论证和推理领域也处理可解释性边界的问题。仅仅因为AI应用程序已经取代了一些传统工作并不意味着它们的控制器不需要解释。他们必须遵循相同的规则来计算服务软件。一般法律原则要求控制者在发生法律纠纷时解释自动决策。例如,特斯拉自动驾驶汽车撞到行人的案例。但是,总则原则并不是强制解释的唯一理由,当代一些法律法规还创设了不同形式的解释权。欧盟的通用数据保护条例(GDPR)已经定义了解释权,这意味着当个人接受自动化决策时,他们需要对人工智能系统的逻辑做出合理的解释。在美国,公民有权就其信贷申请被拒绝获得解释。事实上,正如上图所预见的那样,这项权利迫使信用评分公司在对客户进行评分时使用回归模型(更具解释力),以便他们提供强制性解释。(4)消除人工智能系统的历史偏见需要可解释性历史上,人类对不同群体的歧视从未停止过,这也反映在收集到的数据上。当开发人员训练AI模型时,他们将历史数据输入到AI的偏见和歧视方面。如果我们的观察存在种族偏见,该模型也会在做出预测时投射这些偏见。巴特利特的研究表明,在美国,至少有6%的少数族裔信贷申请因纯粹的歧视而被拒绝。因此,用这种有偏见的数据训练信用申请系统会对少数群体产生毁灭性的影响。作为一个社会,我们必须了解算法是如何运作的,以及人类如何消除偏见,以保障社会自由、平等和博爱。(5)自动化业务决策需要可靠性和信任从财务角度来看,可解释性也很有意义。当利用AI系统为贵公司的销售和营销工作推荐特定解决方案时,您可能想知道它为什么推荐它。决策者对方案负责,因此采用方案的理由必须明确。这对实体公司和金融公司都具有重要意义,尤其是在金融市场上,一个错误的决策可能会给公司造成重大损失。来源:unsplash人们需要可解释AI的原因来自不同的学科和领域,包括社会学、哲学、法律、伦理学和商业,足以看出这种需求的广度和紧迫性。