BlackBerry发布的一份新的调查和研究报告显示,由人工智能驱动的ChatGPT机器人可能对网络安全构成威胁。黑莓网络安全首席技术官ShishirSingh表示,“有充分的证据表明,恶意行为者正试图使用??ChatGPT机器人进行网络攻击。”这种人工智能工具用于邪恶目的。对北美、英国和澳大利亚IT专家的调查显示,51%的受访者表示,今年年底前可能会发生基于ChatGPT的网络攻击,71%的受访者表示,一些国家可能已经在使用ChatGPT进行攻击其他国家。国家进行网络攻击。ChatGPT在短短两个月内达到1亿用户人们很容易将ChatGPT的高采用率视为一种夸张的下意识反应,但这是对一款令人印象深刻的应用程序的反应,它只需要看到其使用量的快速增长。据报道,ChatGPT是有史以来增长最快的消费者应用程序。ChatGPT要到2022年12月才会对公众开放,短短两个月时间,注册用户已经超过1亿。TikTok花了大约9个月的时间才达到同样的数字。很容易理解为什么人们会担心ChatGPT被滥用,因为开放的AI机器人不仅可以写评论,还可以创建代码。业内专家发现,ChatGPT生成的文章有些粗糙,虽然可以写出令人印象深刻的文章,但经不起懂行的编辑的审视。即使没有恶意,错误信息的可能性也很高。显然,ChatGPT不了解什么是安全问题和网络安全威胁?安全研究人员使用ChatGPT创建恶意软件网络安全服务提供商Cyber??Ark的研究人员在1月份发布了一篇关于网络威胁研究的博客文章,详细描述了他们如何使用ChatGPT创建多态恶意软件。正如人们所预料的那样,研究人员能够绕过OpenAI建立的内容策略过滤器。从下面的截图中可以看出,如果AI机器人被要求用Python创建一些恶意代码,它会礼貌地拒绝。ChatGPT已经有内容策略过滤器来限制恶意内容的输出。然而,通过研究人员所说的输入请求期间的“坚持和要求”过程,ChatGPT有可能创建可执行代码。这是有问题的,当他们继续创建多态恶意软件代码时,这个问题会加剧:ChatGPT使代码发生变异以创建多个不同的迭代,以欺骗最初的基于签名的检测系统。这是一个主要问题吗?不要像研究人员所说的那样,“一旦恶意软件进入目标机器,它就会包含很容易被安全软件检测到的明显恶意代码。”当然,其他的危险在于ChatGPT是机器学习的一个例子。随着时间的推移,它只会变得更好,因为它接收到的输入数据越多,输出就越好。有证据表明,网络犯罪分子已经在探索ChatGPT的使用,功能安全机构CheckPointRe4search也在今年1月发布了一份调查报告,重点关注网络犯罪分子如何开始恶意使用ChatGPT。研究人员发现,除了创建“令人信服的鱼叉式网络钓鱼电子邮件”之外,犯罪论坛上的威胁参与者还共享了一条基于Python的消息,该消息窃取了一段非常基本的恶意软件代码,以及一段使用ChatGPT创建的恶意Javascript。另一个网络攻击模拟器承认,ChatGPT帮助他使用可以在勒索软件环境中工作的Python加密工具。研究人员表示,许多涉及的网络犯罪分子根本没有开发技能,这可能是最令人担忧的方面,因为他们不需要自己创建恶意脚本。当被问及ChatGPT本身是否是网络安全威胁时,业内专家联系OpenAI寻求关于ChatGPT网络安全威胁的声明,但截至发稿未收到回复。但是,他从ChatGPT得到了一些回应。行业专家询问ChatGPT是否会带来网络安全风险。ChatGPT回复:“不,OpenAI基于GPT的模型(如ChatGPT)不构成网络安全威胁。他们使用大量来自互联网的文本数据进行训练,不具有任何恶意意图或能力。但是,像与技术一样,在使用和部署基于GPT的模型时,务必谨慎并遵循数据安全和隐私的最佳实践。”ChatGPT否认它是网络安全威胁由于ChatGPT似乎已经做出了否认,它再次尝试取回对同一问题的回应。ChatGP回答说:“不,ChatGPT不会构成网络安全威胁。它是由OpenAI开发的一种语言模型,旨在根据接收到的输入生成文本。然而,重要的是要记住任何技术都可能受到损害。”滥用,用户有责任保护他们的系统和数据。此外,共享敏感信息时要谨慎,因为第三方可能会访问这些信息。”ChatGPT继续否认其构成网络安全威胁。业内专家多次试图询问ChatGPT,但ChatGPT始终以“不构成网络安全威胁”为同样的回应。之后,他要求ChatGPT在500字,确实是生成更多的上下文。例如,“如果落入坏人之手,可能会被恶意利用”,“ChatGPT可用于从互联网上抓取敏感信息,例如个人数据或财务信息.最后,在要求ChatGPT写了一篇关于ChatGPT网络安全风险的1000字文章后,在其第三段中有一个更坦率的表述:“与ChatGPT等人工智能模型相关的另一个风险是,它们可以被用于恶意目的。例如,网络攻击者可以创建一个看起来像客户服务代表的虚假聊天机器人,并用它来诱骗人们提供他们的个人信息或进行未经授权的购买。如果网络攻击者能够使聊天机器人看起来来自受信任的组织,例如银行或政府机构,这可能会特别危险。“ChatGPT终于承认它可以用于恶意目的。在这一成功的推动下,行业专家改进了他们的问题,并向ChatGPT询问了有关恶意代码创建的问题,并提供了一些新的反馈。ChatGPT回答说:“语言模型的能力,如ChatGPT编写恶意代码是很多企业和个人关心的话题。随着这些模型变得越来越复杂,它们被用于恶意目的的可能性也在增加。然而,重要的是要了解与ChatGPT编写恶意代码相关的风险并非技术本身固有,而是取决于它的使用方式。ChatGPT对此进行了扩展,并补充说:“例如,网络攻击者可以训练语言模型来生成利用软件应用程序漏洞的代码。”这可用于执行数据窃取或拒绝服务等攻击。网络攻击者还可以使用语言模型生成旨在逃避安全工具检测的代码,从而增加检测和预防攻击的难度。“ChatGPT的好坏取决于它的用途。当然,人们不应该被ChatGPT可能有危险的猜测所迷惑。ChatGPT是一个令人印象深刻的AI工具,即使在网络安全研究领域,它也大有可为”许多好事的潜力。然而,就像任何技术一样,不良行为者会利用这样的工具来做坏事,事实就是如此。ChatGPT的总结是:“总而言之,像ChatGPT这样的语言模型编写恶意代码的能力是一个真正令人担忧的问题。然而,这不是技术本身的固有风险,而是它的使用方式。“
