当前位置: 首页 > 科技观察

关乎人类生存?为什么要探索AI系统的可解释性?

时间:2023-03-21 12:49:49 科技观察

本文转载自公众号《阅读核心》(ID:AI_Discovery)这可能是你第一次听说“可解释的人工智能”这个词,但你一定很快就会明白:可解释的人工智能Intelligence(XAI)是指构建人工智能应用程序的技术和方法,以便人们可以理解这些系统做出某些决策的“原因”。换句话说,如果我们能从一个人工智能系统中得到关于它的内部逻辑的解释,那么这个系统就被认为是一个XAI系统。可解释性是人工智能界流行的一个新属性,我们将在下面讨论它为什么会在最近几年出现。首先,让我们深挖这个问题的技术根源。人工智能的进步推动着我们的生活科技,必然让我们能够更便捷地享受到更好的服务。技术是我们生活中不可或缺的一部分,其好处大于风险。不管你喜不喜欢科技,它对我们生活的影响只会与日俱增。计算机、互联网和移动设备的发明使生活变得更加方便和高效。继电脑、互联网之后,人工智能成为新的生活增强剂。从50年代和60年代的数学努力到90年代的专家系统,我们取得了今天的成就。我们可以在汽车上使用自动驾驶仪,使用谷歌翻译与外国人交流,使用无数的应用程序来美化我们的照片,并使用智能推荐算法找到最好的餐馆。人工智能对生活的影响力不断增强,现已成为生活中不可或缺、毋庸置疑的助力。另一方面,人工智能系统变得如此复杂,普通用户几乎不可能理解它是如何工作的。我敢说只有不到1%的谷歌翻译用户知道它是如何工作的,但我们仍然信任这个系统并广泛使用它。我们应该了解这个系统是如何工作的,或者至少应该能够在必要时获得有关它的信息。过于关注准确性几个世纪以来,数学家和统计学家一直在研究线性回归、决策树和贝叶斯网络等传统机器学习算法。这些算法非常直观,它们的发展早于计算机的发明。当您根据这些传统算法之一做出决定时,很容易产生解释。但是,它们仅在一定程度上实现了准确性。因此,传统算法具有很高的可解释性,但不是很成功。然后,随着McCulloch-Pitts神经元的发明,一切都改变了。这一发展导致了深度学习领域的诞生。深度学习是人工智能的一个分支,主要研究利用人工神经网络复制大脑神经元的工作机制。由于计算能力的提升和开源深度学习框架的优化,我们逐渐能够构建具有高精度性能的复杂神经网络。人工智能研究人员竞相实现尽可能高的精确度。而这场比赛无疑帮助我们打造了伟大的人工智能产品,但同时也付出了代价:可解释性低。神经网络非常复杂且难以理解。它们可以用数十亿个参数构建。例如,OpenAI革命性的NLP模型GPT-3,拥有超过1750亿个机器学习参数;从如此复杂的模型中得出任何一个推论都极具挑战性。机器学习算法的准确性与可解释性如您所见,依赖传统算法而不是深度学习模型的AI开发人员会损失很多。因此,我们看到越来越多的模型越来越准确,而模型的可解释性越来越差。但我们比以往任何时候都更需要可解释性。越来越多的人工智能系统被用于某些敏感领域。请记住,人们在战争中使用的是真刀真枪。是的,一切都在变化,远超你的想象。智能人工智能无人机已经可以在没有人为干预的情况下击落任何人。一些军队也已经具备实施这些系统的能力;然而,他们也对未知的结果感到担忧。他们不想依赖他们甚至不知道如何工作的系统。事实上,DARPA已经有一个正在进行的XAI项目。无人驾驶汽车是另一个例子。Autopilot现在可用于Tesla车辆。这对司机来说是极大的方便。但是,随之而来的是巨大的责任。当你的车遇到道德困境时,你会怎么做?在道德困境中,它必须在两个邪恶的选择中选择成本较低的一个。例如,Autopilot是否应该牺牲一只狗来拯救行人?您还可以在麻省理工学院的道德机器中一窥集体和个人道德。人工智能系统正日益影响着我们的社会生活。我们需要知道他们在一般情况下和在特定事件中是如何做出决定的。人工智能的指数级增长可能对生存构成威胁我们都看到了《终结者》,见证了机器如何变得具有自我意识并可能毁灭人类。AI很强大,它可以帮助我们成为多行星物种,它可以把我们彻底毁灭,就像《启示录》里的场景。事实上,研究表明,超过30%的人工智能专家认为,当我们实现通用人工智能时,结果要么很糟糕,要么非常糟糕。因此,应对灾难性后果的最有力武器是了解人工智能系统的工作原理,以便我们可以使用制衡机制,就像我们限制政府过度行为一样。解决与人工智能相关的争议需要推理和解释由于过去两个世纪人权和自由的发展,现行法律法规已经要求在敏感领域具有一定程度的可解释性。法律论证和推理领域也涉及可解释性的边界。仅仅因为AI应用程序接管了一些传统工作并不意味着它们的控制者不负责提供解释。他们必须遵守相同的规则,还必须为其服务提供解释。一般法律原则要求在发生法律纠纷时(例如,当自动驾驶特斯拉撞到行人时)对自动决策进行解释。然而,一般规则和原则并不是要求强制解释的唯一理由。我们也有一些当代的法律法规来规范不同形式的解释权。欧盟的《通用数据保护条例》(GDPR)定义了解释权,即在公民受制于自动化决策时,对人工智能系统的逻辑提供合理的解释是必要的。另一方面,在美国,公民有权就其信贷申请被拒绝获得解释。实际上,这项权利迫使信用评分公司在对客户进行评分时使用回归模型(更容易解释),以便他们可以提供强制性解释。消除人工智能系统的历史偏见需要可解释性。自远古时代以来,人类一直具有歧视性,这反映在收集的数据中。当开发人员训练AI模型时,他会在历史数据中注入所有偏见和歧视性元素。如果观察结果存在种族偏见,模型在做出预测时也会反映这些偏见。巴特利特的研究表明,美国至少有6%的少数族裔信贷申请被拒绝纯粹是因为歧视性做法。因此,用这种有偏见的数据训练信用申请系统会对少数群体产生毁灭性的影响。作为一个社会,我们必须了解算法是如何运作的,以及如何消除偏见,以确保社会自由、平等和博爱。自动化业务决策需要可靠性和信任。从财务角度来看,可解释性也很有意义。当使用支持AI的系统为您的组织的销售和营销工作建议具体行动时,您可能想知道它为什么建议它做什么。政策制定者必须明白为什么他们需要采取特定行动,因为他们将为此负责。这对实体企业和金融企业都有重大影响。尤其是在金融市场,一个错误的举动可能会让公司付出沉重的代价。如您所见,这些观点有力地证明了我们为何需要可解释的AI。这些观点来自社会学、哲学、法学、伦理学和商业等各个学科和领域。因此,我们需要AI系统的可解释性