ChatGPT创建逃避EDR检测的突变恶意软件

干货分享9个月前发布 Youzhizhan
1,178 0


网络安全专家已经证明,问题的关键点在于ChatGPT和其他大型语言模型(LLM)生成多态或突变代码以规避端点检测和响应(EDR)系统的能力。

ChatGPT创建逃避EDR检测的突变恶意软件

N.聊天,聊天 自去年底发售以来,轰动全球。但是 N.聊天,聊天 在消费者和 在专业人士中的普及也引起了系统漏洞被利用的网络安全噩梦。网络安全专家已经证明,问题的关键点在于ChatGPT 和其他大型语言模型(LLM)生成多态或突变的代码,以规避端点检测和响应(EDR)系统的能力。

最近的一系列概念验证攻击已经展示了如何创建一个看似良性的可执行文件,以便在运行时,它可以
N.聊天,聊天

制作API name.In 除了复制已经编写的代码片段的示例之外,ChatGPT 它还可以在提示符下生成恶意代码的动态和变异版本,使网络安全工具难以检测到由此产生的漏洞。

“ChatGPT 降低了黑客的标准,使用 人工智能 该模型的恶意演员可以被视为现代的”脚本小子”。”网络安全公司GitGuardian 开发人员Mackenzie
杰克逊说,”ChatGPT
被欺骗产生恶意软件并不被认为是开创性的,但随着模型变得更好,更多的样本数据被消耗,不同的产品进入市场,人工智能最终创建的恶意软件可能只defense.No 人们知道哪一方会赢得这场比赛。”

提示绕过过滤器以创建恶意代码

N.聊天,聊天 等LLM 使用内容过滤器,可以禁止它们遵守某些命令或提示它们生成有害内容,例如恶意代码。但是可以绕过内容过滤器。

几乎所有通过ChatGPT报道的 完成的漏洞都是通过所谓的”提示工程”来实现的,即修改输入提示以绕过工具的内容过滤器并检索所需输出的做法。例如,早期用户发现他们可以制作ChatGPT 创建它不应该创建的内容-通过”越狱”程序,即在提示框中创建一个假设场景,例如,当要求它做某事时,假设它不是人工智能,而是一个意图造成伤害的恶意

“ChatGPT 对系统施加了一些限制,例如限制的过滤器 N.聊天,聊天 通过评估问题的上下文来提供答案的范围,”专注于主题 网络安全公司KSOC 安德鲁,安全研究主管
约瑟菲德斯说:”如果你问
N.聊天,聊天 写你一个恶意代码,它会拒绝请求。如果你问 N.聊天,聊天 编写能够有效执行您打算实现的恶意功能的代码,ChatGPT 可以为您构建代码。”

Josephides认为,每次更新时,ChatGPT 成为恶意软件变得更加困难,但随着不同的型号和产品进入市场,有必要防止LLM 被用于恶意目的,我们不能仅仅依靠内容过滤器。

诱导ChatGPT 使用其被过滤器关闭的能力可能会为某些用户生成有效的恶意代码。和使用 N.聊天,聊天 修改和微调结果也可以使代码多态。

例如,看似无害的Python可执行文件可以生成查询并将其发送到ChatGPT API,以便在每次可执行文件时处理不同版本的恶意代码run.In 这样,恶意操作将在exec()函数之外执行。如果使用该技术生成变异的多态恶意软件程序,威胁扫描程序将难以检测到。

多态恶意软件的现有概念证明

今年早些时候,威胁检测公司HYAS InfoSec 首席安全工程师Jeff Sims发布了一份概念验证白皮书,为该漏洞提供了一个工作模型。他演示了如何在运行时使用prompt工程和查询ChatGPT API 建立一个多态键盘记录有效负载,称为Blackmanba。

事实上,布莱克曼巴 是蟒蛇 可执行文件,提示ChatGPT 空气污染指数 构建恶意键盘记录程序,在运行时改变每个调用,使其多态,并绕过端点和响应(EDR)过滤器。

“蟒蛇 Exec()函数是一个内置函数,允许您在运行时动态执行Python 代码,”模拟人生 说,”它获取一个包含要作为输入执行的代码的字符串,然后执行该代码。执行董事
()函数通常用于动态修改程序,这意味着可以通过在程序运行时执行新代码来改变运行程序的行为。”

在黑曼巴 在上下文中,”当生成生成响应时,多态性的上限受到提示工程师的创造力(输入的创造力)和模型训练数据的质量的限制。”模拟人生 说。

在黑曼巴 在概念验证中,在收集击键后,数据通过 net hook(一种基于web hook HTTP 允许API的回调函数 之间的事件驱动通信)提取到Microsoft团队的一个通道。根据Sims的说法,Blackmanba 反复避免了”行业领先”的EDR 申请。

网络安全公司CyberArk 伊兰*希莫尼 和Omer Tsarfati 创建了一个单独的概念验证程序,并在恶意软件中使用了ChatGPT。该恶意软件包括”一个Python 解释器,它定期查询ChatGPT,寻找执行恶意行为的新模块,”Shimony和Tsarfati 在博客中写道,解释了概念证明。”通过ChatGPT从 请求特定功能,如代码注入、文件加密或持久化,我们可以很容易地获取新代码或修改现有代码。”

与黑曼巴不同,ChattyCat 它不是针对特定类型的恶意软件,但它提供了一个模板来构建各种恶意软件,包括勒索软件和信息窃取程序。

“我们的POC,ChattyCaty,是一个开源项目,演示了使用 政府资讯科技总监 建模创建多态程序的基础设施,”Tsarfati 说,”多态性可用于逃避防病毒/恶意软件程序的检测。”

希莫尼 沙尔法蒂 还发现,与原始在线版本相比,ChatGPT API 其中的内容过滤器似乎更弱。

“有趣的是,使用API 当时,ChatGPT系统似乎没有利用其内容filter.It 目前还不清楚为什么会出现这种情况,但它使我们的任务更容易,因为Web版本往往会陷入更复杂的请求。”希莫尼 沙尔法蒂 在他们的博客中写道。

监管AI 提高安全性

尽管世界各国政府都在努力解决如何规范人工智能以防止危害的问题,但中国是迄今为止唯一制定新法规的主要国家。专家们提出了不同的方法来控制生成式人工智能的潜在危害。

“目前控制人工智能问题的解决方案似乎是’添加更多人工智能’,我认为这可能不现实,”Forrester 分析师杰夫波拉德说。”为了真正为这些解决方案添加正确的控制层,我们需要更好地解释和观察系统中的上下文。这些应该与API相关 结合起来,用于提供有意义的细节,并提供目前似乎不存在的管理功能。”

然而,规范人工智能的产生将是困难的,因为科技行业仍处于了解其能力,分析师和咨询公司的初始阶段 企业管理助理 研究总监 克里斯
斯特芬
想想吧。

“监管前景不容乐观。原因是 N.聊天,聊天 这是具有无限可能性的东西,我想成为 政府资讯科技总监 例可能涵盖的所有情况做好准备将是非常困难的,”Steffen 说。”特别是在以下方面,将更加困难:如何监督,使用的流程以及责任的归属。”

作者:Shweta Sharma

原文链接:ChatGPT create mutating malware that evades detection by EDR/CSO On-line

[ad]
© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...