模型命名空间复用漏洞可劫持谷歌微软平台AI模型
一种名为"模型命名空间复用"的新型安全漏洞被发现,攻击者可利用该漏洞劫持谷歌Vertex AI和微软Azure AI Foundry等主流平台上的AI模型。该漏洞源于AI模型采用的简易命名机制,当开发者删除账户或转移模型所有权后,原模型名称将重新开放注册。攻击者注册已被释放的模型名称并上传恶意版本模型,导致开发者程序自动拉取恶意版本而非原始可信模型。该漏洞影响大型平台及数千个开源项目。安全专家建议开发者固定到特定已验证版本,并加强模型验证机制以防止此类攻击。 2025-9-4 12:15:31 Author: www.freebuf.com(查看原文) 阅读量:0 收藏

freeBuf

主站

分类

云安全 AI安全 开发安全 终端安全 数据安全 Web安全 基础安全 企业安全 关基安全 移动安全 系统安全 其他安全

特色

热点 工具 漏洞 人物志 活动 安全招聘 攻防演练 政策法规

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

漏洞概述

一种名为"模型命名空间复用(Model Namespace Reuse)"的新型安全漏洞被发现,攻击者可利用该漏洞劫持谷歌Vertex AI和微软Azure AI Foundry等主流平台上的AI模型。Palo Alto Networks旗下Unit 42团队的研究显示,该漏洞源于AI模型采用的简易命名机制。

当前AI模型普遍采用"作者/模型名"的命名规则,这种命名空间(namespace)机制类似于网站域名,开发者通过名称引用模型。研究发现,当开发者在Hugging Face等平台删除账户或转移模型所有权后,原模型名称将重新开放注册。

攻击原理

攻击者会注册已被释放的模型名称,并上传恶意版本模型。例如原"DentalAI/toothfAIry"模型删除后,攻击者可重新注册该名称并植入恶意模型。

攻击向量流程图(来源:Palo Alto Networks)

由于多数开发者程序仅通过名称自动拉取模型,系统会在不知情的情况下下载恶意版本而非原始可信模型,从而为攻击者提供系统后门。Unit 42团队通过接管Hugging Face上仍被谷歌Vertex AI和微软Azure AI Foundry使用的模型名称,成功获得平台远程访问权限。该团队已向两家公司负贵披露漏洞,相关修复措施正在实施。

从Hugging Face部署模型至Vertex AI(来源:Palo Alto Networks)

防护建议

研究表明,仅凭模型名称无法确保安全性,该漏洞不仅影响大型平台,还波及数千个采用相同命名机制的开源项目。安全专家建议开发者采取以下措施:

  1. 将模型"固定(pin)"到特定已验证版本,防止代码自动拉取新更新
  2. 模型经彻底检查后,下载存储至可信内部环境,消除上游变更风险
  3. 平台供应商与开发者需共同加强模型验证机制

专家观点

Sonatype首席安全研究员Garrett Calpouzos指出:"模型命名空间复用并非全新风险,本质上是仓库劫持(repo-jacking)的变体。"他强调模型名称不能证明其来源安全性,建议企业"固定到不可变版本",通过验证唯一标识符在构建时"直接阻断攻击或立即检测异常"。

参考来源:

Model Namespace Reuse Flaw Hijacks AI Models on Google and Microsoft Platforms

本文为 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf 客服小蜜蜂(微信:freebee1024)


文章来源: https://www.freebuf.com/articles/ai-security/447324.html
如有侵权请联系:admin#unsafe.sh