AI初创企业在GitHub泄露敏感凭证,模型与训练数据面临风险
全球顶级AI企业大量泄露API密钥和访问令牌,导致私有AI模型、训练数据面临风险。研究显示65%的福布斯AI 50强企业存在密钥泄露问题。攻击者可借此访问敏感数据或劫持专有模型。行业缺乏有效的安全响应机制和开发安全规范(DevSecOps),合规治理需求迫切。 2025-11-11 02:47:56 Author: www.freebuf.com(查看原文) 阅读量:2 收藏

freeBuf

主站

分类

云安全 AI安全 开发安全 终端安全 数据安全 Web安全 基础安全 企业安全 关基安全 移动安全 系统安全 其他安全

特色

热点 工具 漏洞 人物志 活动 安全招聘 攻防演练 政策法规

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

image

创新速度超越安全规范

最新研究显示,全球近三分之二的顶级私营AI企业在GitHub上暴露了API密钥和访问令牌。云安全公司Wiz的调查指出,这反映出快速增长的企业可能将创新置于基础开发安全运维(DevSecOps)规范之上,导致宝贵知识产权和数据面临风险。

Wiz发现,在《福布斯》AI 50强企业中,65%存在已验证的密钥泄露问题,这些企业的总估值超过4000亿美元。值得注意的是,近半数漏洞披露尝试未能联系到受影响企业或未获回应,表明其安全事件响应机制存在缺陷。

泄露的凭证可能危及私有AI模型、训练数据及内部组织细节,凸显出AI领域"上市速度优先"的发展模式仍在冲击安全实践。Wiz在博客中警告:"这些深藏在已删除分支、代码片段和开发者仓库中的API密钥、令牌和敏感凭证,多数扫描工具都无法触及。部分泄露可能导致组织结构、训练数据甚至私有模型暴露。"

关键平台遭受波及

研究确认,Hugging Face、Weights & Biases和LangChain等主流AI平台的凭证遭到泄露,攻击者可借此访问私有模型或敏感训练数据集。

安全分析师Sunil Varkey指出:"速度与安全的矛盾是根本诱因,导致云配置错误、密钥管理不当、设计阶段缺乏安全考量及工具链缺陷。其影响远超常规数据泄露,可能同时冲击技术、商业、法律、伦理和战略竞争力多个层面。"

行业痼疾的新威胁

虽然云存储配置错误问题已存在十余年(如AWS S3泄露事件),但如今暴露的资产已升级为AI模型、训练数据和复杂开发管道,潜在危害显著加剧。

SureShield首席技术官Chandrasekhar Bilugu认为,这暴露出AI初创企业与成熟SaaS/云厂商间"显著的DevSecOps鸿沟":"为加速原型开发,AI团队常将配置文件等密钥存于公共仓库,甚至不对已删除分支进行基础扫描。"

"攻击者可劫持专有模型实施商业破坏、窃取用户PII数据(面临数十亿GDPR罚款风险),或引发供应链混乱。"Bilugu补充道,"在训练数据即核心资产的AI领域,单个泄露令牌可能导致数千私有模型遭窃取或投毒。"

合规治理迫在眉睫

IDC亚太区网络安全服务高级研究经理Sakshi Grover指出,Wiz的发现揭示了API密钥泄露如何演变为AI生态系统的全局风险:"失窃凭证可能被用于操纵模型行为或窃取训练数据,动摇对部署系统的信任。"

Grover引用IDC亚太安全研究数据称,仅亚太地区就有50%的企业计划在选择云原生应用保护平台(CNAPP)时强化API安全投入,反映出暴露API已成为主要攻击途径。随着监管机构加强AI安全与数据保护审查,密钥管理和API治理预计将成为新兴AI合规框架的强制审计项。

参考来源:

AI startups leak sensitive credentials on GitHub, exposing models and training data

本文为 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf 客服小蜜蜂(微信:freebee1024)


文章来源: https://www.freebuf.com/articles/ai-security/456649.html
如有侵权请联系:admin#unsafe.sh