vLLM高危漏洞可致远程代码执行(CVE-2025-62164)
主站 分类 云安全 AI安全 开发安全 2025-11-23 16:40:16 Author: www.freebuf.com(查看原文) 阅读量:4 收藏

freeBuf

主站

分类

云安全 AI安全 开发安全 终端安全 数据安全 Web安全 基础安全 企业安全 关基安全 移动安全 系统安全 其他安全

特色

热点 工具 漏洞 人物志 活动 安全招聘 攻防演练 政策法规

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

2025年11月24日
vLLM中新披露的高危漏洞允许攻击者仅通过提交恶意提示嵌入(prompt embeddings)即可导致服务器崩溃或可能执行任意代码。该漏洞编号为CVE-2025-62164,CVSS评分为8.8分,影响vLLM 0.10.2及后续版本,使大量AI部署和基于LLM的应用程序面临重大风险。

漏洞技术细节

根据安全公告,"vLLM 0.10.2及后续版本的Completions API端点存在内存损坏漏洞,可导致服务崩溃(拒绝服务)并可能实现远程代码执行(RCE)"。

该漏洞源于Completions API在反序列化用户提供的嵌入时验证不足。受影响代码通过torch.load(tensor, weights_only=True)加载张量。但公告警告称:"由于PyTorch 2.8.0引入的变更,稀疏张量完整性检查默认被禁用...恶意构造的张量可绕过内部边界检查,并在调用to_dense()时触发越界内存写入。"

漏洞危害性

这种越界写入正是该漏洞极具危险性的原因——不仅会导致服务器崩溃,还可能实现任意代码执行。相关补丁已通过#27204号合并请求发布。

安全建议

随着AI基础设施的持续扩展,供应链弱点及底层张量操作漏洞将日益成为攻击目标。运行vLLM的组织应立即升级版本,并审计所有对外开放的模型服务接口。

参考来源:

vLLM Flaw (CVE-2025-62164) Risks Remote Code Execution via Malicious Prompt Embeddings

本文为 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf 客服小蜜蜂(微信:freebee1024)


文章来源: https://www.freebuf.com/articles/ai-security/458647.html
如有侵权请联系:admin#unsafe.sh