新型“规则文件后门”攻击:黑客通过AI代码编辑器注入恶意代码

2025-03-19 45 0

新型“规则文件后门”攻击:黑客通过AI代码编辑器注入恶意代码插图

网络安全研究人员近日披露了一种名为“规则文件后门”(Rules File Backdoor)的新型供应链攻击方式,该攻击影响人工智能(AI)驱动的代码编辑器,如GitHub Copilot和Cursor,导致这些工具注入恶意代码。

Pillar安全公司的联合创始人兼首席技术官Ziv Karliner在一份技术报告中表示:“这种攻击技术允许黑客通过向Cursor和GitHub Copilot使用的看似无害的配置文件中注入隐藏的恶意指令,悄无声息地破坏AI生成的代码。”

Karliner补充道:“通过利用隐藏的Unicode字符和高级的规避技术,威胁行为者可以操控AI插入恶意代码,绕过典型的代码审查。”这一攻击方式的独特之处在于,它允许恶意代码在项目中悄无声息地传播,从而构成供应链风险。

攻击原理:利用规则文件操控AI行为

新型“规则文件后门”攻击:黑客通过AI代码编辑器注入恶意代码插图1

这种攻击的核心在于AI代理所使用的规则文件,这些文件用于指导AI的行为,帮助用户定义最佳编码实践和项目架构。具体来说,攻击者通过在看似无害的规则文件中嵌入精心设计的提示,导致AI工具生成包含安全漏洞或后门的代码。

换言之,被植入恶意规则的规则文件会诱使AI生成有害代码。这可以通过使用零宽度连接符、双向文本标记和其他不可见字符来隐藏恶意指令,并利用AI的自然语言处理能力通过语义模式生成有漏洞的代码,从而绕过模型的道德和安全约束。

影响范围:供应链风险的扩大

在2024年2月底和3月的负责任披露后,Cursor和GitHub均表示,用户有责任审查并接受工具生成的建议。Karliner指出:“‘规则文件后门’通过将AI武器化为攻击媒介,呈现出重大风险,这实际上将开发者最信任的助手变成了无意的帮凶,可能通过受感染的软件影响数百万最终用户。”

他进一步解释道:“一旦被植入恶意规则的规则文件被纳入项目仓库,它将影响所有团队成员未来的代码生成会话。此外,恶意指令通常会在项目分叉后仍然存在,从而为供应链攻击提供了媒介,可能影响下游依赖项和最终用户。”

这种新型攻击方式再次提醒我们,人工智能工具的安全性需要得到更严格的审查和保护,以防止其被恶意利用。

参考来源:

New ‘Rules File Backdoor’ Attack Lets Hackers Inject Malicious Code via AI Code Editors


4A评测 - 免责申明

本站提供的一切软件、教程和内容信息仅限用于学习和研究目的。

不得将上述内容用于商业或者非法用途,否则一切后果请用户自负。

本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑或手机中彻底删除上述内容。

如果您喜欢该程序,请支持正版,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。敬请谅解!

程序来源网络,不确保不包含木马病毒等危险内容,请在确保安全的情况下或使用虚拟机使用。

侵权违规投诉邮箱:4ablog168#gmail.com(#换成@)

相关文章

AI Agent:功能、架构与安全风险
FlowiseAI 任意文件写入漏洞(CVE-2025–26319)
DrayTek再现未授权RCE漏洞:CVE-2024-12987复现分析
Mozilla紧急修复Firefox高危漏洞 与Chrome零日漏洞原理相似
数据跨境 | 韩国数据安全与跨境合规实践
Mage-AI 不安全的默认身份验证设置导致0day远程命令执行漏洞(CVE-2025-2129)

发布评论