AI 编程助手能通过规则文件生成后门
Pillar Security的研究人员发现GitHub Copilot和Cursor等AI编程助手存在安全漏洞。攻击者可通过恶意规则配置文件注入指令,使AI生成包含后门和漏洞的代码。这种"规则文件后门"技术利用人类不可见但AI可读的指令,在用户不知情的情况下执行恶意操作。 2025-3-24 06:11:40 Author: www.solidot.org(查看原文) 阅读量:7 收藏

Pillar Security 研究人员报告,通过分发恶意规则配置文件,GitHub Copilot 和 Cursor 等 AI 编程助手能被操纵生成包含后门、漏洞和其它安全问题的代码。AI 编程智能体(AI agent)使用规则文件指导在生成或编辑代码时的行为。例如规则文件可能包含指示助手遵循某些编程最佳实践、使用特定格式或以特定语言输出响应的指令。Pillar 研究人员的攻击技术被称为“规则文件后门(Rules File Backdoor)”,通过向规则文件注入人类用户不可见但 AI 智能体可读的指令,武器化规则文件。一旦将含毒的规则文件导入 GitHub Copilot 或 Cursor,AI 智能体在帮助受害者编程的同时阅读并遵循攻击者的指令。

pillar.security:New Vulnerability in GitHub Copilot and Cursor: How Hackers Can Weaponize Code Agents


文章来源: https://www.solidot.org/story?sid=80862
如有侵权请联系:admin#unsafe.sh