当前位置: 首页 > 科技观察

采用AI时保护隐私的3个关键安全实践

时间:2023-03-21 14:16:18 科技观察

在实施AI战略之前,组织需要考虑一些新技术,以帮助保护隐私并确保符合安全标准。如果企业从事下一代数字产品工程,那么试验人工智能(AI)将帮助他们建立新的商业模式、收入流和体验。但企业应该注意有关人工智能技术创新的头条新闻。解决了50年之久的蛋白质折叠问题的AlphaFold等进步,以及可能更具影响力的AI技术,使AI更加负责任和注重隐私。与AI/ML相关的数据隐私只会随着算法在训练和部署中吸收和使用越来越大的数据集而增长,尤其是随着GDPR、CCPA、HIPAA等新隐私法规越来越重要。事实上,美国食品和药物管理局(FDA)最近发布了一项新的行动计划,以规范人工智能在医疗设备中的使用。不断扩大的监管框架在一定程度上解释了为什么数据隐私是这十年来最重要的问题之一。随着企业计划在未来进行AI投资,以下三种AI技术将确保它们在未来保持合规性和安全性。1.联邦学习联邦学习是一种越来越重要的机器学习训练技术,可以解决机器学习最大的数据隐私问题之一,特别是在具有敏感用户数据的领域(例如医疗保健)。过去十年的遗产是尽可能多地隔离数据。然而,训练和部署机器学习算法所需的聚合数据已经产生了严重的隐私和安全问题,尤其是当数据在企业之间共享时。联邦学习允许企业从聚合数据集中提供见解,同时确保非聚合环境中的数据安全。基本前提是本地机器学习模型在私有数据集上训练,模型更新在数据集之间流动以进行集中聚合。至关重要的是,数据永远不必离开本地环境。通过这种方式,数据在保持安全的同时仍然为组织带来“人群的智慧”。联合学习降低了单一攻击或泄漏的风险,因为数据不是保存在单个存储库中,而是分布在多个存储库中。2.可解释的人工智能(XAI)许多AI/ML模型(尤其是神经网络)都是黑盒模型。在对大量数据进行训练后,由于难以确定某些决策的制定方式和原因,这些模型通常是不负责任的。为了使它们更加负责和透明,需要使它们更具可解释性。一个名为“可解释性”的新兴研究领域使用复杂的技术来帮助为决策树等简单系统以及神经网络等复杂系统带来透明度。解释有助于建立对系统的信任,还可以帮助研究人员了解错误发生的原因以及如何快速纠正错误。在医疗保健、银行、金融服务和保险等敏感领域,不能盲目信任人工智能决策。例如,在批准银行贷款时,需要了解为什么有人被拒绝,尤其是考虑到种族偏见蔓延到其他人工智能系统的例子时。随着AI变得越来越复杂,让这些黑盒模型变得清晰将变得越来越重要,而可解释的AI(XAI)应该是未来开发AI系统的组织关注的主要领域。3.AIOps/MLOps大约20年前,DevOps彻底改变了应用程序的开发、部署和管理方式。它使管道标准化,从而显着提高效率并缩短交货时间。如今,AIOps/MLOps正在对人工智能做同样的事情。Cognilityca预测,到2025年,全球MLOps市场将扩大到40亿美元。其想法是通过标准化操作、衡量性能和自动修复问题来加速整个机器学习模型生命周期。AIOps可以应用在以下三层:(1)基础设施层这就是容器化发挥作用的地方。自动化工具允许组织扩展其基础架构和团队以满足容量需求。DevOps的新兴子集GitOps专门将DevOps原则应用于在容器中运行的基于云的微服务。(2)应用性能管理(APM)根据IDC的调查,全球应用宕机每年造成1.25至25亿美元的损失。应用程序性能管理(APM)通过简化应用程序管理、限制停机时间和最大化性能来帮助组织。应用程序性能管理(APM)解决方案采用AIOps方法,该方法使用人工智能和机器学习来主动识别问题,而不是被动方法。(3)IT服务管理(ITSM)IT服务非常庞大,几乎可以代表IT组织提供给最终用户的任何硬件、软件或计算资源,无论该最终用户是内部员工、客户还是企业伙伴。ITSM采用AIOps来自动化票务工作流程、管理和分析事件、授权和监控文档等。虽然大多数组织实施AIOps/MLOps是为了提高效率,但许多组织发现,例如,应用程序性能管理(APM)平台可以通过利用其丰富的数据资源作为预警系统来增加额外的安全层。随着AI/ML生命周期变得更加严格优化和结构化,安全和隐私风险将更容易识别和减轻。负责任地进行实验过去几年出现了许多强大的AI用例,但未来将确保这些用例背后的AI系统负责任地使用数据。随着越来越多的隐私法规的发布,以及组织看到法规实际上增加了透明度和对客户的信任,是时候试验负责任的AI了。联合学习、可解释人工智能和AIOps/MLOps将是三个不错的起点。