生成式AI对网络安全团队有好处吗?关于环境如何演变为有利于网络攻击者或防御者的争论一直很激烈。近日,英伟达(NVIDIA)首席安全官、前Nutanix网络安全高级总监DavidReber在接受行业媒体采访时,就生成式人工智能、ChatGPT等工具对网络威胁态势的影响分享了自己的看法2023年。影响观念。以下是行业媒体DavidReber的专访:为什么需要人工智能来阻止AI驱动的网络威胁?Reber:了解网络攻击者的局限性可以深入了解他们的下一步行动。网络攻击者面临的限制之一是使用专有技术进行大规模定制攻击。随着生成人工智能技术的进步,网络攻击者可以轻松地进行微调和有针对性的攻击。网络攻击的速度和复杂性超出了人类的能力。这就是防御性AI发挥作用的地方。那么你如何使用他们的工具来对付他们呢?这是一场永远存在的猫捉老鼠的游戏。在使用防御性AI对抗攻击性AI时,网络安全团队面临哪些挑战?Reber:十年前,人工智能行业转向了“假定突破”策略。我们认识到,网络攻击者只需要攻击一次,而防御者则必须每次都进行防御。网络攻击者了解防御者的局限性:人力、监管、竞争优先权。随着人们继续面临对在线商业行为的日益严格的监管,正确使用互联网的需求变得更加迫切。人工智能面临的根本挑战是信任。那么你怎么知道将人力集中在其他地方是有效的呢?从根本上说,人们需要信任人工智能,然后将其自动化。例如,我们是否乘坐自动驾驶汽车,但相信它会带我们到达目的地?网络攻击者没有规则、边界或法律监督来防止这些问题的发生。CISO如何使用AI来打败恶意AI的使用?Reber:据估计,到2022年全球将有超过140亿台物联网设备。为了打败恶意AI,企业安全领导者需要确保业务安全,否则会增加网络攻击的成本。当我们处于生成AI的形成阶段时,可以采用传统的拖延策略。CISO可以在网络上创建一个更有趣的目标,并知道如何互动作为回报。目标是为网络攻击制造更多噪音,让他们将更多时间浪费在价值较低的数据上。例如,将虚假数据伪装成知识产权就是一场欺骗战。对ChatGPT有什么想法吗?Reber:它将使网络安全民主化。在此之前,网络攻击受到规模和技术的限制。ChatGPT有可能消除这一限制因素。这将催生新一代的网络攻击者,其限制因素现在已被消除。但这也是防御者预测未来的机会,因此需要了解他们攻击面中未探索的角落。关于这个话题还有什么要补充的吗?Reber:市场上充斥着利基解决方案。每个人都在努力寻找适合自己的下一代计算技术。在当前的经济形势下,我们都需要找到事半功倍的方法。这将导致更统一的技术堆栈和更少的解决方案和工具投资。当我们应对网络攻击时,我们需要团结起来形成一个生态系统。传输信息交换的互操作性是我们领先于网络攻击者的方式,因此共享技能和知识将使我们能够战胜对手。
