当前位置: 首页 > 科技观察

人工智能攻击人工智能,网络安全战升级

时间:2023-03-12 12:33:39 科技观察

在最近的一次网络安全会议上,100位受访的行业专家中有62人认为,第一轮人工智能增强的网络攻击很可能在未来12个月内发生。出现在。人工智能的介入将进一步升级现有的网络犯罪和网络安全体系,进而成为攻击者和防御者军备竞赛的核心支柱之一。这种担忧并非空穴来风。网络安全是一个人力有限的市场。除了不需要吃饭和休息,计算机还可以利用AI自动化来提高复杂攻击的速度和执行效率,可以轻松引诱黑客利用AI进行攻击。虽然目前在公共领域的研究仅限于白帽黑客使用计算机来识别漏洞并提出修复建议。然而,以人工智能的发展速度,攻击者大规模应用它指日可待。基于人工智能的网络攻击会带来哪些威胁?首先,人工智能可以帮助黑客定制攻击方式。例如,鱼叉式网络钓鱼攻击要求攻击者获取潜在目标的个人和其他详细信息,包括银行账户或他们选择的健康保险公司。人工智能系统可以帮助攻击者快速收集、组织和处理大型数据库,以关联和识别信息,最终简化攻击实施的门槛,加快攻击执行速度。此外,减少的工作量将允许网络犯罪分子发起大量小规模攻击。由于单次攻击的影响有限,因此即使检测到此类活动,通常也不会引起注意。人工智能系统甚至可以用于同时从多个来源提取信息,以发现易受攻击的目标。其次,人工智能有助于提高适应性。AI支持的攻击者在遇到阻力时或在网络安全专家修复先前存在的漏洞时能够迅速做出反应。在这种情况下,AI可能会在没有人类指令的情况下移动到利用另一个漏洞,或者扫描系统以寻找新的可能的入侵方法。这意味着防御者将无法跟上AI方案的攻击速度。这极有可能引发一场新的编程和技术军备竞赛,防御者开发人工智能助手来检测和防御攻击,甚至创建具有报复性攻击能力的人工智能解决方案。第三,人工智能也可能带来的危险。人工智能自主运行可能会导致其攻击不该攻击的对象,甚至可能对系统造成意想不到的破坏。例如,一个只想偷钱的攻击者,在运行人工智能软件后,可能会决定以医院的电脑为目标,这很容易导致人身伤害甚至死亡等严重后果。尽管后果和影响很重要,但大多数组织在经历第一次AI攻击时都没有注意到此类重大变化。但随着我们继续使用人工智能系统来改善我们的家庭环境、工厂、办公室,甚至交通系统,人工智能带来的潜在威胁将不断增加。利用AI攻击AI除了AI带来的自动化攻击,黑客利用AI攻击AI也成为业界最为关注的潜在威胁。对抗性机器学习研究表明,人工智能可能会被黑客攻击,从而做出完全错误的决定。随着人工智能渗透到我们生活的方方面面——驾驶汽车、分析视频监控系统、通过面部识别某人——对这些系统的攻击变得更有可能,也更危险。例如,黑客修改路边交通标志可能导致车祸和人身伤害,数据机器学习系统的细微变化也可能导致人工智能系统做出的决策出现偏差。为了防止黑客想要通过篡改数据集或现实环境来攻击人工智能,研究人员正在转向对抗性机器学习研究。在这种情况下,研究人员修改数据的方式会欺骗神经网络和人工智能系统,使其看到不存在的事物、忽略存在的事物,或者做出完全错误的分类决定。正如谷歌和纽约大学的研究人员所做的那样,在一张校车照片上添加一层人类看不见的数据噪声,神经网络就会认为它是一只鸵鸟。不仅仅是图像可以做到这一点,隐藏的语音命令也被嵌入到广播中,以在人们不注意的情况下控制智能手机。“攻击的范围非常广泛,这取决于攻击者在机器学习模型的生成过程中所处的位置,”华盛顿大学的计算机安全研究员EarlenceFernandes说,他也从事停车标志的研究。例如:在人脸检测算法中,攻击者有可能用恶意数据毒化模型,导致检测算法将攻击者的人脸识别为授权人。“另一方面,推理时间攻击攻击模型显示精心制作的输入以混淆神经网络。虽然这种类型的工作现在被描述为一种攻击,但从哲学上讲,对抗性示例最初被视为神经网络中的近盲点网络设计:我们假设机器以与我们相同的方式看待事物,并且它们使用与我们相似的标准来识别对象。谷歌研究人员于2014年在一篇关于“神经网络的有趣特性”的论文中首次描述了这一想法,该论文描述了向图像添加“扰动”元素如何导致神经网络出错——他们称这些被称为“对抗性示例”。他们发现微小的扭曲可以诱使神经网络误读数字或将校车误认为其他东西。该研究质疑神经网络的“固有盲点”及其在学习过程中的“非直觉特征”。换句话说,我们并不真正理解神经网络是如何工作的。正是基于神经网络的不可理解性,人们暂时不必过于担心AI攻击。麻省理工学院研究员AnishAthalye指出,“据我们所知,这种类型的攻击还没有被现实世界中的恶意组织所采用。”攻击风险,人们可以采取哪些潜在的防御措施?首先,很明显,在网络防御中增加人工智能的使用并不是一个糟糕的选择。网络防御已经采用监督和非监督学习方法的组合来根据现有模式预测新的威胁和恶意软件。行为分析是另一种探索途径。机器学习技术可用于监控系统和人类活动,以检测潜在的恶意偏差。但重要的是,在使用AI进行防御时,我们应该假设攻击者已经预料到这一点。我们还必须掌握人工智能的发展及其在网络中的应用,以便可靠地预测恶意应用程序。为实现这一目标,行业从业者、学术研究人员和政策制定者之间的合作至关重要。立法者必须考虑人工智能的潜在用途并更新“黑客”的定义。研究人员应谨防恶意使用其研究成果。补丁程序和漏洞管理程序也值得在企业界得到应有的关注。最后,用户还应具有安全意识,防止社会工程攻击,阻止密码重复使用,并在可行的情况下提倡双因素身份验证。