人工智能研究小组OpenAI上个月发布了一个不同寻常的公告:它表示已经构建了一个基于人工智能的内容创建功能,该功能非常复杂,OpenAI不会向开发人员发布完整的模型。这样做的原因是任何在网络安全领域工作的人都应该知道一两件事。根据CofenseInc.的一项研究,2016年91%的网络攻击是由网络钓鱼电子邮件引发的。TruSTARTechnologyLLC的数据科学家NicolasKseib表示,使用软件机器人从社交网络和公共数据库中提取个人信息,并结合强大的内容生成引擎,可能会产生更有说服力的网络钓鱼电子邮件,甚至可能冒充一个人。写作风格。潜在结果:网络犯罪分子可以更快、更大规模地发起网络钓鱼攻击。这种危险巧妙地总结了网络安全目前所处的永无止境的战争状态,在这种状态下,还没有人能够回答一个核心问题:人工智能会为犯罪分子做更多的事情,还是为网络安全做更多的事情?来自攻击防御者的更多帮助?在一些人看来,人工智能是一种新武器,它最终可以让安保人员领先于他们的对手。但与此同时,专家担心机器学习、深度学习等人类人工智能技术可能被非法滥用,将带来严重后果。不过,这场争议并没有阻止网络安全市场参与者继续将人工智能用作营销噱头。本周,当网络安全行业的从业者齐聚旧金山参加年度RSA大会时,这一点将显而易见。RSA大会是今年网络安全行业的大型会议之一。但在这个过程中,他们可能会对这项技术能带来什么产生错误的期望。MapRTechnologiesInc.的著名技术专家兼银行业资深安全官约翰·奥默尼克(JohnOmernik)表示,如今被吹捧为人工智能的大多数技术只不过是建立在单一数据类型上的分类算法。国际数据公司(IDC)安全部门研究总监罗伯韦斯特维特也认为,“猫捉老鼠的游戏还会继续,因为黑客将能够利用工具来逃避防御。”事实上,许多攻击者已经在使用各种工具了。虽然到目前为止还没有明确记录的主要由机器学习驱动的攻击案例,但越来越多的证据表明网络犯罪工具正变得越来越智能。例如,去年7月爆发的新版Rakhni特洛伊木马b包含一个上下文感知功能,可以安装最适合它感染的系统的恶意软件。安装了加密货币钱包的计算机也被勒索软件感染,而其他人则选择了加密货币挖掘。BitglassInc.产品营销经理JacobSerpa表示:“这只是未来可能面临的威胁的一个小例子。”识别入侵和响应目标的能力,加强对入侵的防御。但他们也指出,人工智能技术仍处于相对初级的阶段,犯罪分子尚未充分发挥其潜力。网络犯罪的兴起和暗网上恶意训练数据的可用性可能会助长这些因素。现在重要的是,组织开始明白,虽然人工智能增强了防御能力,但其局限性仍不明朗。寻找模式许多安全专家嘲笑使用“智能”一词来描述如今几乎不具备两岁儿童认知能力的技术。但他们也同意机器学习和深度学习等领域可以为组织安全带来价值。机器学习可用于检测超大数据集中的模式,而深度学习在图像和语音识别等领域表现出色。例如,安全运营中心正在处理来自IPS的大量误报。近200万网络安全人才紧缺,企业不能浪费时间。IBMCISOKoosLodewijkx表示,企业安全数据中心(SOC)中将近60%的活动是重复性的:“检测速度更快,但响应速度仍然与人类相同。”可以训练机器学习算法以发现日志数据模式中恶意活动的链接,这些模式具有更高的相关性,从而使网络安全人员能够更好地关注问题。梳理人类无法处理的海量数据是机器擅长的领域之一,尤其是当它们配备机器学习和深度学习功能时,这使它们无需明确编程即可学习。“人类擅长发现模式,但在处理我们在检测中看到的快速数据类型时,不可能牢记属性和模式,”网络安全公司ArkoseLabs的高级工程总监AnnaWestelius说。允许我们这样做。”机器学习的根源在于预测分析,它可以帮助提高人类操作员的工作效率。根据BalbixInc.的数据,《财富》(财富)1000家公司现在平均有260多个潜在攻击点,包括云服务、手机、“物联网”设备和合作伙伴帐户。TruSTAR的Kseib说,模式检测还可以通过将行为与已知用户配置文件联系起来来检测异常情况。“当你与公司以外的人分享敏感信息时,你的系统可以检测到并触发一系列防御行动,比如阻止这种行为,”他说。此外,机器学习可以应用于用户和行为分析,这是为用户活动建立基线并检测与规范的偏差的学科。在ExperianCorp.去年的一项调查中,三分之二的受访者认为这是他们安全架构中最薄弱的环节。根据DivvyCloud工程副总裁ScottTotman的说法,“大多数用户都不知道自己犯了错误,也从未被告知,也从未被告知如何改正错误,也从未学会如何避免错误。”机器学习可用于识别不一致并“创建教育最终用户的反馈循环”。深度学习是人工智能的一个分支,近年来在语音和图像识别方面取得了突破,目前正成为网络安全领域的关键武器。它改进了对超针对性“网络钓鱼”电子邮件的检测,并加强了生物识别等领域的访问控制。例如,JumioCorp.使用深度学习将图像和文档识别相结合以进行用户身份验证。该公司的技术将当场拍摄的自拍与政府颁发的身份证进行比较,以验证用户的身份。该软件可以根据图像质量的变化以及用户体重、面部毛发的增减等因素进行调整。它还可以检测表明ID篡改的细微因素,例如字体的微小变化。供应商的崛起公司很快接受了AI这个词,用户开始购买各种产品。最近一项由基于云的网络检测与响应(NetworkDetection&Response)供应商ProtectWiseInc.委托对400多名安全专业人员进行的调查发现,73%的受访者表示他们至少实施了安全产品的某些方面。然而,有46%的受访者表示规则的创建和实施是一件苦差事,有四分之一的受访者表示他们不打算在未来实施对更多AI产品的支持,该技术的相对不成熟是显而易见的。所以人工智能有光明的未来,但在某些领域它提供的价值很小,甚至可能引入新的漏洞。当问题领域众所周知且变量变化不大时,机器学习和深度学习的效果相对较好。算法擅长检测模式的变化,但不擅长识别新模式。专注于威胁检测和响应的FidelisCyber??securityInc.高级产品营销经理汤姆克莱尔说:“你真的很难发现未知的东西。”据SafetyDetective.com称,自2013年以来,恶意软件的发生率增加了五倍。更改变量可能会混淆机器学习算法,这是迄今为止它们在对抗恶意软件方面价值有限的原因之一。Malwarebytes的首席技术官DougSwanson说,机器学习算法“本质上会失败,因为恶意软件的训练集变化如此之快”。“未来的恶意软件模型看起来与今天几乎完全不同。”人工智能模型依赖大量高质量的源数据进行训练,这可能会限制它们快速响应除已知威胁模式之外的所有威胁模式的能力。“归根结底,(模型)可能又大又慢,”Jumio科学家LabheshPatel说。这样,结果的价值也只取决于用于训练的数据。这就是为什么MapR的Omernik建议组织对供应商声称他们拥有全面的AI安全方法的说法持怀疑态度。他回忆起曾在两家不同的银行工作,一家主要面向本地客户,另一家面向全球客户。“人们从非洲或俄罗斯的计算机登录是正常的,”他说,并指出此类活动会发送IDS,该IDS已硬连接到系统中以考虑出轨位置。一个必须解决的黑匣子如果机器学习要有助于对抗网络威胁,它就不能像通常那样是一个黑匣子。需要持续关注模型,以确保训练数据完整、相关且不受攻击者的影响。引入错误或误导性数据会降低或恶化结果。“如果人们过于依赖这项技术,它最终会自行学习,”ArkoseLabs的Westelius说。“但机器学习可以重新训练自己,这样它认为正常的行为就不再正常了。”这些原则中也有一些细微差别,这有悖于人类的逻辑。例如,研究人员已经展示了通过在普通人类语音甚至音乐中嵌入隐藏命令来愚弄语音助手(如亚马逊的Alexa和苹果的Siri)的方法。自动驾驶汽车系统可能会因为实验者粘贴的小而几乎不引人注意的贴纸而错误识别路标。结果:加强企业防御的工具也可以用来以新颖的方式突破它们。以XEvil为例,它是一种验证码,可用于破译扭曲和模糊的字符,准确率高达90%。它是基于深度学习的机器视觉软件的衍生产品,用于引导自动驾驶汽车,也可用于攻破密码认证系统中常见的第二道防线。对一切开放?与许多AI模型一样,XEvil是开源的,因此可以轻松地在“好人”和“坏人”之上构建。无论好坏,大多数流行的机器学习模型都发布到开源软件中,这意味着无法知道谁在使用它们。这一事实促使IBMLodewijkx发出不祥的警告。“知识和技能正在民主化,”他指出。编程技能历来都是基于数据库的,但机器学习中常见的基于模型的方法正在迅速成为主流。“我们从大学雇用的孩子已经改变了他们的编程技能,”他说。“这也影响到犯罪方面。”机器学习擅长检测模式的变化,但该技术也可用于叠加轨迹。“目前,许多罪犯的签名都是基于他们一贯的犯罪行为,”DivvyCloud的托特曼说。“犯罪分子可以使用机器学习来随机化他们的模式,混入以避免被发现。”MalwarebytesLabs主管AdamKujawa说,反恶意软件制造商担心AI可能会创建自我变异的恶意软件,“软件会调整检测到的恶意软件的代码,编译并重新部署它以避免进一步检测。”“这可能在眨眼之间发生,极大地增加了我们定期处理的恶意软件数量。”大量虚假新闻随着网络犯罪越来越成为专业人士和“网络流氓”的领域,人工智能的潜在滥用变得有问题的。令人不安。2016年美国总统大选期间出现的假新闻现象因“深度造假”技术的出现而加剧。“Deepfake”技术操纵图像、视频和声音文件,使事件和动作看起来从未真正发生过。到目前为止,这些应用仅限于让名人难堪,但同样的技术也可用于损害高管和政客的声誉。这又回到了谁将从AI中获益更多的问题:白帽(“whitehacker”)还是黑帽(blackhat,“黑客”)?目前还没有达成共识。几乎每个人都同意的一点是,新工具将增加正在进行的军备竞赛的风险。“攻击者将使用AI来创建更好的网络钓鱼电子邮件,但安全公司也将更善于发现它们,”IDC的Westervelt说。同样,云计算使强大的计算机和软件可供企业和大众使用。Balbix首席营销官MarkWeiner表示,虽然受益于AI民主化安全的组织往往防御薄弱。“我认为这将有助于支持许多不太成熟的组织,而且好处大于它给坏人带来的机会,”他补充说。网络安全风险投资公司AllegisCyber??的董事总经理罗伯特·阿克曼(RobertAckerman)表示,黑客将迫使组织更多地关注保护数据,而不是防止渗透。他说,今天的网络安全实践是“一座有1,000个漏洞的大坝,我们正在四处奔波试图将它们全部堵住”。有一些希望。阿克曼接着说,同态加密等技术将受到青睐。同态加密技术使数据在加密状态下进行处理。还有一些人看到了对抗性机器学习的潜力,对抗性机器学习使模型相互对抗以加强防御。但所有这些活动都是在使用多云、移动设备和无数物联网设备导致复杂性不断增加的背景下发生的。这不是一个好兆头。Westervelt说:“即使是CIO也希望更精细地控制他们的数据,更不用说人们如何共享和使用这些数据了,而且它变得非常复杂。”在网络安全领域,复杂性是罪犯最好的朋友。
