当前位置: 首页 > 科技观察

是否有可能让AI更加透明?

时间:2023-03-18 02:53:55 科技观察

增强深度神经网络的可解释性对于使AI在道德上更加合理和实用至关重要。人工智能工作的透明度可能会给将技术集成到日常运营中的组织带来麻烦。那么,可以做些什么来减轻对可解释人工智能需求的担忧呢?人工智能在任何行业的深远好处是众所周知的。我们意识到这项技术如何帮助全球数以千计的企业加快运营速度并更富有想象力地使用他们的员工。此外,人工智能的长期成本和数据安全优势已被技术专栏作家和博主无数记录。不过,人工智能确实有很多问题。问题之一是技术的决定有时是可疑的。但更重要的是,更大的问题是当AI驱动的系统出现令人尴尬或灾难性的错误时,稍微缺乏可解释性。人类每天都会犯错误。但是,我们清楚地知道错误是如何产生的。可以采取一套明确的纠正措施,以避免在未来重复同样的错误。然而,人工智能中的一些错误无法解释,因为数据专家不知道算法在运行过程中是如何得出特定结论的。因此,对于计划在日常工作中实施该技术的组织和已经采用该技术的组织而言,可解释的AI应该是重中之重。是什么让AI可以解释关于AI的一个常见谬误是它是完全可靠的。神经网络,尤其是在其早期阶段,可能会出错。同时,这些网络以不透明的方式执行命令。如前所述,AI模型得出特定结论所采用的路径在运行过程中的任何时候都是不明确的。因此,即使是经验丰富的数据专家,也几乎不可能解释这样的错误。人工智能的透明度问题在医疗保健行业尤为突出。考虑这个例子:一家医院有一个神经网络或一个黑匣子人工智能模型来诊断病人的脑部疾病。智能系统经过训练,可以从过去的记录和患者现有的医疗档案中寻找数据模式。使用预测分析,如果模型预测受试者未来对脑部相关疾病的易感性,通常不能100%清楚预测背后的原因。对于私人和公共机构,让AI工作更加透明的4个主要原因如下:1.问责制如前所述,利益相关者需要了解AI模型决策过程背后的内部运作和推理,尤其是对于意想不到的建议和决策.一个可解释的人工智能系统可以确保算法在未来做出公平和道德的建议和决策。这可以提高组织内人工智能神经网络的合规性和信任度。2.更好的控制可解释的人工智能通常可以防止工作操作中的系统性错误。更多地了解人工智能模型中现有的弱点可以用来消除它们。因此,组织可以更好地控制人工智能系统提供的输出。3.改进众所周知,人工智能模型和系统需要不时地不断改进。可解释的AI算法将在定期系统更新期间变得更加智能。4.新发现新的信息线索将使人类发现解决当前时代重大问题的方法,如治疗艾滋病的药物或疗法,以及治疗注意力缺陷障碍的方法。更重要的是,这些发现将得到确凿证据和普遍可验证的理由的支持。在AI驱动的系统中,透明度可以以人类可以理解的自然语言的分析语句的形式显示,突出显示用于做出输出决策的数据的可视化,显示支持给定决策的点的案例,或突出显示系统声明拒绝其他决定的理由。近年来,可解释人工智能领域不断发展壮大。最重要的是,如果这种趋势在未来继续下去,企业将能够使用可解释的AI来提高他们的产出,同时了解每个关键的AI支持决策背后的基本原理。虽然这些是AI需要更加透明的原因,但仍然存在阻止这种情况发生的障碍。其中一些障碍包括:AI责任悖论然而,一些组织可能不太热衷于增加其智能系统的问责制,因为可解释的人工智能会带来一系列问题。其中一些问题是:窃取有关AI模型操作的重要细节。由于对系统漏洞的了解增加,外部实体的网络攻击威胁。除此之外,许多人认为,发现和披露人工智能系统中的机密决策数据会使组织容易受到诉讼或监管行动的影响。为了不遭受这种“透明度悖论”的困扰,企业必须考虑与可解释的人工智能相关的风险及其明显的好处。企业必须有效管理这些风险,同时确保可解释的人工智能系统生成的信息不被稀释。此外,公司必须了解两件事:首先,与使AI透明化相关的成本不应阻止他们集成此类系统。企业必须制定一个风险管理计划,以适应可解释的模型,使他们提供的关键信息保密。其次,企业必须改进其网络安全框架,以检测和消除可能导致数据泄露的漏洞和网络威胁。人工智能的黑箱问题深度学习是人工智能不可或缺的一部分。深度学习模型和神经网络通常以无监督方式进行训练。深度学习神经网络是人工智能的关键组成部分,涉及图像识别和处理、高级语音识别、自然语言处理和系统翻译。不幸的是,虽然此类AI组件可以处理比传统机器学习模型更复杂的任务,但深度学习还在日常操作和任务中引入了黑盒问题。众所周知,神经网络可以复制人脑的运作方式。人工神经网络的结构是模仿真实的神经网络。神经网络是由多层互连节点和其他“隐藏”层创建的。虽然这些神经节点执行基本的逻辑和数学运算以得出结论,但它们也足够智能和直观,可以处理历史数据并从中生成结果。真正复杂的操作涉及多个神经层和数十亿个数学变??量。因此,这些系统生成的输出几乎没有机会得到组织中AI专家的全面验证和确认。德勤和谷歌等组织正在努力创建工具和数字应用程序,这些工具和数字应用程序可以突破黑匣子并揭示用于做出关键人工智能决策的数据,以提高智能系统的透明度。为了让AI更负责任,组织必须重新构想其现有的AI治理策略。以下是改进治理可以减少基于透明度的AI问题的一些关键领域。在系统设计的初始阶段,组织可以在构建人工智能系统和训练神经网络时优先考虑信任和透明度。密切关注AI服务提供商和供应商如何设计AI网络可以提醒组织中的关键决策者注意AI模型的功能和准确性的早期问题。这样,在系统设计阶段采用亲身实践的方法可以揭示一些基于AI透明度的问题,供组织观察。合规性随着世界各地的人工智能法规在人工智能责任方面变得更加严格,组织可以真正受益于让他们的人工智能模型和系统符合这些规范和标准。组织必须推动他们的AI供应商创建可解释的AI系统。为了消除人工智能算法的偏见,公司可以联系基于云的服务提供商,而不是聘请昂贵的数据专家和团队。组织必须通过明确指示云服务提供商在其工作场所安装和实施人工智能系统期间勾选所有与合规相关的框来减轻合规负担。除了这些要点之外,组织还可以在其AI治理计划中包括隐私和数据安全等方面。自世纪之交以来,我们取得了一些最惊人的技术进步,包括人工智能和深度学习。幸运的是,尽管100%可解释的人工智能尚不存在,但人工智能透明系统的概念并非遥不可及。这取决于实施这些系统以改进其AI治理并承担风险以实现这一目标的组织。