当前位置: 首页 > 科技观察

人工智能治理如何登上顶峰

时间:2023-03-12 20:54:05 科技观察

人工智能(AI)技术如今已得到广泛部署。人工智能治理很重要,因为人工智能可以获得更大的回报,但风险很高,如果做错了,后果可能很严重。必须从风险管理的角度对组织进行治理。AI的主要风险因素包括以下内容:可以防止AI侵犯人们的隐私吗?人工智能驱动的应用程序中可能出现的社会和经济偏见能否消除?人工智能驱动的流程能否确保对人们完全透明、可解释和可理解?AI算法能否设计成始终明确人类对其算法的结果负有责任和责任?是否可以将道德和伦理原则纳入AI算法,以便它们将所有人类考虑可能导致生死决定的权衡考虑在内?是否有可能自动使人工智能应用程序与利益相关者的价值观保持一致,或者至少在特殊情况下获得弹性,从而防止恶意机器人出现在自主决策场景中?在不确定性太大而无法采取自主行动的情况下,人工智能驱动的决策能否得到遏制?能否开发故障安全程序,以便在人工智能自动化应用程序达到其能力极限时人类可以收回控制权?改变环境?人工智能应用程序能否免受旨在利用其底层统计算法的算法的影响?对漏洞的对抗性攻击?是否有可能设计出在环境数据与训练环境数据显着不同时优雅地失败而不是灾难性地失败的AI算法?如果在基于软件的开发中,如果IT和运营(DevOps)流程中没有适当的控制,人工智能治理就毫无用处,那么基于软件的管道自动化的人工智能治理。AI应用程序由数据科学家、数据工程师、数据管理员和其他人员组成的团队在复杂的工作流程中构建、训练、部署和管理。为了满足这一需求,许多组织正在将AI治理控制构建到他们的MLOps流程中。从本质上讲,这需要策略驱动流程的自动化,这些流程管理数据、统计模型、元数据和其他用于构建、培训和部署AI应用程序的构建块。它还需要工具来监控AI应用程序在其整个生命周期中的使用、行为和结果。任何AI驱动流程的典型风险是不知道组织是否可以信任已部署的统计模型来准确可靠地执行分配的任务。如果统计模型的预测适用性下降到无法执行其指定任务(例如识别人脸、理解人类语音或预测客户行为)的程度,那么它对构建和部署它的组织来说基本上是无用的。因此,人工智能治理的一个核心功能是模型保障。它能够确定AI应用程序的机器学习模型是否预测适合其分配的任务,如果不适合,则将其放回原位。然而,预测准确性可能是难以保证的性能指标。人工智能的统计模型通常以人工神经网络的形式实现,它们可能非常复杂和神秘,以至于它们掩盖了它们实际上是如何驱动自动推理的。还有人担心,基于统计的应用程序可能会无意中混淆了对其自动决策可能产生的任何偏见和其他不利后果的责任。此外,这些概率模型可能很少被评估和重新训练,导致模型曾经适用,但现在已经失去了预测能力。在MLOps平台中嵌入AI模型保证将业务押在AI驱动流程上的组织必须考虑是将模型保证用作其MLOps平台的嵌入式功能,还是专注于这一令人兴奋的优势。来自基础市场的初创供应商。幸运的是,越来越多的数据科学DevOps环境提供可靠的模型保证。最新一代的这些工具利用云原生基础设施来部署和管理源源不断的AI模型和代码构建,一直到边缘。商业产品中的主要产品有:GoogleCloudAIPlatform提供持续评估等模型质量保证功能,让数据科学家可以将模型预测与实际情况标签进行比较,以获得持续反馈并优化模型精度。H2O.ai无人驾驶人工智能提供了丰富的模型质量保证功能。它支持分析一个模型是否对不同的人群产生不同的不利结果,即使它不是为了解释这些结果而设计的。它自动监控部署模型的预测衰减;为A/B测试的替代模型建立基线;并在模型需要重新校准、重新训练和以其他方式维护时提醒系统管理员,以便为生产做好准备。MicrosoftAzure机器学习MLOps可以通知和发送机器学习生命周期中事件的警报,例如实验完成、模型注册、模型部署和数据漂移检测。它监控机器学习应用程序的模型特定指标,并为机器学习基础设施提供监控和警报。它还可以根据新数据和其他运营和业务因素自动重新训练、更新和重新部署模型。AmazonSageMakerModelMonitor持续监控AWSSagemaker云计算服务中的机器学习模型,检测数据漂移等会随着时间推移降低模型性能的偏差,并提醒用户采取补救措施,例如审计或重新训练模型。可以安排监控作业定期运行,可以将摘要指标推送到AmazonCloudWatch以设置警报和触发纠正措施,并支持AmazonSageMaker支持的多种实例类型。Superwise的AIAssurance提供了一个实时平台,用于监控和维护已部署AI模型的准确性。它使利益相关者能够在部署的AI模型对业务产生负面影响之前发现模型衰退和其他问题。它会标记模型不准确,以及由AI模型的数据变化引起的错误。它还可以捕获与模型部署到的业务环境中的变化相关的不准确性。它为数据科学团队提供前瞻性建议,以采取手动操作来维护模型的准确性、公平性和适用性的其他方面。它还可以自动执行一些纠正操作,以防止模型漂移到潜在的次优区域。结论虽然人工智能不会对公众构成威胁,但现实是我们可能会看到更多的司法管辖区收紧对这项技术的监管。随着我们进入2020年代,人工智能应用程序无论在最好还是最坏的意义上都将成为最具颠覆性的技术。如果不对扩散进行监控和控制,有缺陷的AI模型可能会对社会造成严重破坏。人工智能的一些风险来自技术特定结构的设计限制。其他原因可能是由于实时AI应用程序的运行时管理不足。还有一些可能是机器学习、深度学习和人工智能所依赖的其他统计模型的“黑匣子”复杂性所固有的,这对技术来说是难以理解的。为了减轻这些风险,组织将越来越需要在每个部署场景中对这些模型的性能进行自动化治理。