AI能生成10000个恶意软件变体,88%可逃避检测
2024-12-24 09:45:0 Author: mp.weixin.qq.com(查看原文) 阅读量:10 收藏

 聚焦源代码安全,网罗国内外最新资讯!

编译:代码卫士

Palo Alto Networks Unit 42团队的安全研究员发现可利用大语言模型 (LLMs) 大规模生成能更好躲避检测的恶意 JavaScript 代码新变体。

研究人员分析指出,“尽管LLMs 挣扎于从零生成恶意软件,但犯罪分子可轻易利用它们重写或混淆现有恶意软件,使其更加难以检测。犯罪分子可提示LLMs 开展看似更自然的变化,使恶意软件检测更难。”随着拥有足够多的变化,这一方法将拥有降维打击恶意软件分类系统表现的能力,诱骗LLMs 认为恶意代码是非恶意的。

虽然LLM提供商通过越来越增强的安全手段组织它们生成非预期的输出,但恶意人员已开始营销 WormGPT 等工具,自动化构建令人信服的钓鱼邮件以诱骗潜在目标甚至创建新型恶意软件的流程。

2024年10月,OpenAI 公司披露称拦截了20多个运营和欺骗网络,它们尝试利用其平台实施侦查、漏洞研究、脚本支持和漏洞调试等操作。Unit 42团队的研究人员提到,他们利用 LLMs 迭代重写现有的恶意软件样本,目的是通过机器学习如 IUPG或PhishingJS 来绕过检测,从而达到无需修改功能就能创建1000个新型 JavaScript 样本。

这一对抗性机器学习技术旨在使用多种方式,如变量重命名、字符串切割、垃圾代码插入、不必要的空格删除以及完整的代码重实现,在恶意软件被作为输入喂给系统时,改变该恶意软件。

研究人员提到,“最终的输出是恶意 JavaScript 的一个新变体,与原始脚本拥有同样的行为,但恶意分数要低得多。”在88%的情况下,贪婪的算法会将自己的恶意软件分类模式的判断从“恶意”改为“善意”。

基于LLM的混淆能力的另外一个优势在于,它很多的重写要比许多库如 obfuscator.io 实现得更加自然,后者更加容易被检测到以及因为向源代码引入变化而更容易被识别出来。

研究人员提到,“生成式AI能够使新型恶意软件代码的变体数量增加。然而,我们可以利用同样的技术来重写恶意代码,帮助生成能够改进机器学习模型健壮性的训练数据。”

此前不久,北卡莱纳州立大学的研究人员利用侧信道攻击技术 TPUXtract 对谷歌 Edge 的TPU 发起模型盗取攻击,准确率高达99.91%。该技术可用于盗取知识财产或发动后续攻击。

代码卫士试用地址:https://codesafe.qianxin.com
开源卫士试用地址:https://oss.qianxin.com


推荐阅读

研究:TPUXtract 方法可盗取AI模型

研究员在DeepSeek 和 Claude AI 中发现多个提示注入漏洞

Ultralytics AI模型正被劫持用于部署挖矿机

Fuzzing 升级:谷歌通过AI找到更多漏洞

DHS发布在关键基础设施安全开发部署AI的框架

原文链接

https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html

题图:Pexels License

本文由奇安信编译,不代表奇安信观点。转载请注明“转自奇安信代码卫士 https://codesafe.qianxin.com”。

奇安信代码卫士 (codesafe)

国内首个专注于软件开发安全的产品线。

    觉得不错,就点个 “在看” 或 "” 吧~


文章来源: https://mp.weixin.qq.com/s?__biz=MzI2NTg4OTc5Nw==&mid=2247521882&idx=2&sn=3eb9867746eacad2a0cc120368846a0d&chksm=ea94a730dde32e2629d13fc926350efa7812c5d973c3ef4a5b726e29afdeadcc55276749ffd8&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh