聚焦源代码安全,网罗国内外最新资讯!
编译:代码卫士
研究人员分析指出,“尽管LLMs 挣扎于从零生成恶意软件,但犯罪分子可轻易利用它们重写或混淆现有恶意软件,使其更加难以检测。犯罪分子可提示LLMs 开展看似更自然的变化,使恶意软件检测更难。”随着拥有足够多的变化,这一方法将拥有降维打击恶意软件分类系统表现的能力,诱骗LLMs 认为恶意代码是非恶意的。
虽然LLM提供商通过越来越增强的安全手段组织它们生成非预期的输出,但恶意人员已开始营销 WormGPT 等工具,自动化构建令人信服的钓鱼邮件以诱骗潜在目标甚至创建新型恶意软件的流程。
2024年10月,OpenAI 公司披露称拦截了20多个运营和欺骗网络,它们尝试利用其平台实施侦查、漏洞研究、脚本支持和漏洞调试等操作。Unit 42团队的研究人员提到,他们利用 LLMs 迭代重写现有的恶意软件样本,目的是通过机器学习如 IUPG或PhishingJS 来绕过检测,从而达到无需修改功能就能创建1000个新型 JavaScript 样本。
这一对抗性机器学习技术旨在使用多种方式,如变量重命名、字符串切割、垃圾代码插入、不必要的空格删除以及完整的代码重实现,在恶意软件被作为输入喂给系统时,改变该恶意软件。
研究人员提到,“最终的输出是恶意 JavaScript 的一个新变体,与原始脚本拥有同样的行为,但恶意分数要低得多。”在88%的情况下,贪婪的算法会将自己的恶意软件分类模式的判断从“恶意”改为“善意”。
基于LLM的混淆能力的另外一个优势在于,它很多的重写要比许多库如 obfuscator.io 实现得更加自然,后者更加容易被检测到以及因为向源代码引入变化而更容易被识别出来。
研究人员提到,“生成式AI能够使新型恶意软件代码的变体数量增加。然而,我们可以利用同样的技术来重写恶意代码,帮助生成能够改进机器学习模型健壮性的训练数据。”
此前不久,北卡莱纳州立大学的研究人员利用侧信道攻击技术 TPUXtract 对谷歌 Edge 的TPU 发起模型盗取攻击,准确率高达99.91%。该技术可用于盗取知识财产或发动后续攻击。
https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html
题图:Pexels License
本文由奇安信编译,不代表奇安信观点。转载请注明“转自奇安信代码卫士 https://codesafe.qianxin.com”。
奇安信代码卫士 (codesafe)
国内首个专注于软件开发安全的产品线。
觉得不错,就点个 “在看” 或 "赞” 吧~