当前位置: 首页 > 科技观察

人工智能如何人性化,才能树立自己的公信力?

时间:2023-03-19 22:12:56 科技观察

人工智能(AI)通常被视为一种黑盒实践,人们不关注技术本身的工作原理,只关注它提供的结果似乎是正确的。在某些情况下,这种效果就足够了,因为大多数时候我们更关心的是结果,而不是结果是如何实现的。不幸的是,将AI视为黑盒过程会引发信任和可靠性问题。从纯技术的角度来看,这也让我们很难分析或解决AI模型中的问题。在本文中,我们将集体审视其中的一些潜在问题,并提出一些解决这些问题的想法。什么是人工智能?许多公司已将人工智能(AI)元素融入其产品中。虽然一些“AI”声明是虚假的营销策略,但有很多产品使用AI和机器学习(ML)来改进自己。简而言之,人工智能是指任何能够表现出智能行为的计算机系统。在本文的上下文中,智能代表了计算机学习、理解或概念总结方面的飞跃。目前,人工智能技术最常见的形式是机器学习,其中计算机算法学习识别数据中的模式。机器学习大致可以分为三类:监督学习:即利用已知数据进行模型训练。这有点像给孩子看最简单的图文识字教材。这种ML也是最常遇到的实现形式,但它有一个致命的缺陷:只有拥有大量可信且正确标记的训练数据,才能建立相关模型。无监督学习:模型自行在数据中寻找模式。手机导航软件就是采用这种学习方式,特别适用于我们对数据一无所知的情况。目前,业界经常使用无监督学习来从数据中识别出可能具有实际意义的重要集群。强化学习:模型每次正确执行时都会得到奖励。因为这是典型的“试错法”学习方法。如果我们从少量数据开始,这种ML方法特别强大。它的出现直接使得持续学习模型成为可能,即模型在接触到新的数据后会不断适应和发展,从而保证它永远不会过时。但是这些方法都面临着同样的问题,我们无法理解学习后生成的最终模型。也就是说,人工智能无法人性化。信任问题大多数黑盒AI系统都是机器通过自学习过程构建的模型。但是,如果不了解系统是如何得出结论的,就很难理解模型得出特定结论的原因,或者对该结论缺乏信心。我们不能问为什么模型会做出这样的判断,只能将结果与自己的预期进行比较。如果我们不了解AI模型的工作原理,我们怎么能相信该模型将始终正确?因此,这种不可理解性反映了无数反乌托邦科幻作品,使人工智能成为恐怖和神秘的代名词。更糟糕的是,许多AI模型确实出现了严重的偏差,这进一步加剧了信任危机。偏见,或者偏见,一直根植于人类的意识形态之中,现在已经开始成为AI技术无法回避的重大问题。因为系统只能从过去的情况中学习,这些可能不足以指导模型为未来做出正确的选择。以人工智能模型在犯罪预测中的使用为例。这些模型使用过去的犯罪统计数据来确定哪些地区的犯罪率高。执法部门调整了巡逻路线,将警力资源集中在这些地区。但人们普遍质疑,使用此类数据本身会加剧偏见,或可能混淆因果关系。例如,随着COVID-19大流行的肆虐,美国主要城市的暴力犯罪率已开始显着下降;然而,汽车盗窃和其他抢劫在一些司法管辖区有所增加。普通人可能会合理地将这些变化与全国范围内的社会距离联系起来,但预测性警务模型可能会错误地将较低的犯罪率和逮捕率解释为稳定性和安全性的提高。目前,人工智能存在多种形式的偏见。就面部识别软件而言,研究表明,包含“人口统计偏差”的算法可以根据受试者的年龄、性别或种族做出准确率大幅波动的判断。有时,当数据科学家执行特征工程以尝试清理源数据时,同样会出现偏差/偏差问题,导致其中一些微妙但极其重要的特征意外丢失。影响最大的偏见甚至会在社会层面引起问题。例如,广告算法会定期根据人口统计数据投放广告,从而使模型中因年龄、性别、种族、宗教或社会经济学等因素而产生的偏见永久存在。人工智能技术在招聘应用程序中暴露出类似的缺陷。当然,这一切都源于人类自身诱发的原始偏见。但是我们如何发现AI模型中的这些偏见并将其剔除?ExplainableAI为了增加对AI系统的信任,AI研究人员正在探索构建ExplainableAI(XAI)的可能性,希望实现AI解决方案的人性化。XAI可以避免我们在obscura模型中难以识别的问题。例如,研究人员在2017年的一份报告中发现了AI作弊问题。人工智能模型经过训练可以成功识别马的图像,这是经典狗/猫识别的一种变体。但事实证明,AI学会的实际上是识别与马图像相关的特定版权声明。为了实现XAI,我们需要观察和理解模型内部的整个运行过程。这个探索本身就构成了理论计算机科学的一个大分支,它的难度可能远比大家想象的要难。更简单的机器学习算法当然相对容易解释,但神经网络要复杂得多。即使是最先进的技术,包括分层关系传播(LRP),也只能显示哪些输入对决策制定更重要。于是,研究人员将注意力转向了局部可解释性的目标,希望能够解释模型做出的一些具体预测。为什么人工智能模型如此难以理解?目前,大多数ML模型都基于人工神经元。人工神经元(或感知器)使用传递函数组合一个或多个加权输入。基于此,激活函数将使用一个阈值来决定是否触发。这种方法实际上限制了神经元在人脑中的工作方式。作为一种常见的ML模型,神经网络由多层人工神经元组成。输入层具有与重要特征相同数量的输入,辅以大量隐藏层。最后,输出层也将具有与重要特征相同数量的输出。我们以最简单的应用场景为例,考虑ML模型如何根据星期几和是否节假日来预测你的起床时间。使用随机分配的权重,模型会生成错误的结果,我们需要在星期三早上9点起床。手动为每个人工神经元设置准确的权重当然是不可能的。相反,我们需要使用称为反向传播的过程,其中算法通过模型向后工作,调整网络的权重和偏差以最小化预测输出与预期输出之间的差异。经过调整,原来我们应该在周三早上7点起床。信任与道德对技术的信任问题正变得越来越重要,毕竟我们已经在尝试使用AI来诊断癌症、识别人群中的通缉犯并做出雇用/解雇决定。如果我们不能将其人性化,我们如何让人们信任它?没有这种信任,就不可能合乎道德地使用它。针对这一重要问题,欧盟通过了一套关于可信赖人工智能的伦理指南,设置了人工智能是否符合伦理和可信赖的七项测试:情境来做出决定。技术的稳健性和安全性:在使用人工智能技术之前,必须知道它是否可靠,包括故障安全和不可破解。隐私和数据治理:人工智能模型通常需要处理个人数据,例如通过医学影像诊断疾病。这意味着数据隐私将非常重要。透明度:人工智能模型应该具有人类可以解释的基本属性。多样性、非歧视和公平:主要与我们之前讨论的偏见问题有关。环境和社会福祉:在这里,标准制定者希望减轻人们对人工智能技术发展创造的反乌托邦未来的担忧。问责制:必须建立独立的监督或监测系统。当然,指南也强调必须合法使用人工智能技术。人工智能的人性化之路本文只关注一个焦点:如何实现人工智能的人性化,从而有效地树立自身的可信度。人类很难相信他们不理解的机器,这最终使我们无法真正从这项创新技术中受益。这个问题在软件测试自动化领域尤为明显,因为这类系统的意义在于在应用解决方案发布之前发现其潜在问题。如果不了解具体的过程,怎么能确定测试结果是正确的呢?如果我们做出了错误的决定,我们该怎么办?如果人工智能系统遗漏了一些问题,我们如何发现或应对?为解决这一问题,必须将ML算法与测试系统相结合,实现决策与相应数据之间关系的可视化。只有这样,我们才能告别黑匣子AI。这是一份脚踏实地的工作,没有奇迹,没有魔法,可以依靠的只有不懈的努力和对机器学习美好未来的憧憬。