当前位置: 首页 > 科技观察

网络安全中的人工智能:2021年的六大考虑_0

时间:2023-03-22 15:31:23 科技观察

进入2021年,随着越来越多的组织采用新技术,人工智能在技术和网络安全方面的未来将继续发展。根据最近的一项调查,三分之二的组织已经在将智能技术用于网络安全目的。使用这些工具可以使公司更好地准备应对使用网络犯罪技术以及人工智能技术不断发展的创新攻击。例如,仅去年一年,犯罪分子就使用基于人工智能的软件复制了CEO的声音,要求220,000欧元(约合243,000美元)的现金转移。对于希望在2021年将更多AI集成到其安全堆栈中的企业而言,遵循以下六个步骤以确保有效使用AI而不损害其他任何地方的安全性至关重要。鼓励负责任地使用AI促进网络安全最近的数据发现,四分之三的高管认为使用AI可以让他们的组织更快地应对违规行为。威胁形势继续迅速变化,网络安全领导者必须采用人工智能来对抗网络犯罪分子创造的新策略。反过来,企业必须专注于确保政策支持这种拥抱。例如,美国对人工智能程序的出口管制应确保公司在使用人工智能方面继续在全球网络安全市场上具有竞争力。确保AI概念参与威胁建模和风险管理AI的部署在全球范围内不断增长,超过四分之一的AI计划已经投入生产,超过三分之一处于高级开发阶段。然而,谨慎的做法是考虑攻击者可能会如何尝试破坏这种增长和新集成的AI系统。尽管尚未广泛使用,但随着数据攻击被更广泛地采用,包括数据中毒攻击和训练模型后门在内的网络攻击可能会针对机器学习系统进行部署。包含人工智能系统的威胁模型很少见,而且通常不成熟。企业领导者应努力开发方法,确保人工智能在风险管理活动的范围内,以最大限度地减少此类威胁。制定和推广人工智能系统的道德准则公共和私营部门都应该使用人工智能应用的道德准则,并鼓励将强有力的安全和透明度控制纳入这些道德框架。AI可以通过多种方式应用于网络安全计划,确保MicrosoftAI原则等框架得到认可非常重要。支持道德人工智能的原则包括:消除人工智能偏见、保护人工智能数据,以及确保人们对人工智能技术如何影响世界负责。支持透明度并公开分享新发现关于人工智能的新研究以及新的对抗性攻击和防御经常在会议论文集和学术期刊上发表。然而,有时这些贡献并没有足够深入地解释这些发现是如何得出的,而且许多论文没有提供或链接到可以准确再现结果的代码。同样,进行人工智能研究的企业通常是秘密进行的,这给人工智能进步的验证和实施带来了负担。这为安全从业者评估针对这些模型的可能攻击提供了更具挑战性的环境,最终使组织更难应对这些威胁。优先考虑对AI系统的攻击性研究在将AI技术应用到产品中之前,公司必须验证这些新技术的潜在风险。组织应确保人工智能应用程序和相关的机器学习系统对当前的安全程序监控和测试范围有意义。监控和测试应包括两家企业采取的自愿措施,以支持发现可能未被注意到的不可预见的人工智能缺陷,以及安全框架和指导以及与安全研究人员的合作。敦促创建和集成隐私保护机器学习虽然机器学习和人工智能技术越来越受欢迎,但对隐私的影响尚未得到广泛探索。特别是,神经网络可以从训练数据中记住特定的例子。因此,人工智能系统可能容易受到模型反转攻击,这种攻击通过反复查询模型以重新创建训练示例来窃取模型训练所依据的数据。如果模型是在敏感数据上训练的,攻击者可能能够恢复有关训练数据的信息。隐私泄露风险的增加导致越来越需要采用和开发保护隐私的机器学习系统。这不仅保护了企业,也保护了使用数据训练模型的消费者。将AI集成到网络安全程序中并非易事。企业领导者必须认识到合并带来的挑战,并制定解决方案以加强网络安全计划,同时保持道德和保护私人数据。负责任地使用AI技术,除了遵循明确的公共指南外,鼓励威胁建模和持续的AI研究是将AI集成到网络安全计划中取得成功的重要步骤。