开源AI/ML模型曝出30余个漏洞,可能导致远程代码执行与信息窃取风险
2024-10-30 10:11:45 Author: www.freebuf.com(查看原文) 阅读量:14 收藏

freeBuf

主站

分类

漏洞 工具 极客 Web安全 系统安全 网络安全 无线安全 设备/客户端安全 数据安全 安全管理 企业安全 工控安全

特色

头条 人物志 活动 视频 观点 招聘 报告 资讯 区块链安全 标准与合规 容器安全 公开课

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

1730256236_67219d6ccbeecfef603a0.png!small

根据最新消息,开源人工智能(AI)和机器学习(ML)模型中已披露了三十几个安全漏洞,其中一些漏洞可能导致远程代码执行和信息窃取。

在 ChuanhuChatGPT、Lunary 和 LocalAI 等工具中发现的这些漏洞已作为 Protect AI 的 Huntr 漏洞悬赏平台的一部分进行了报告。

其中最严重的漏洞是影响大型语言模型(LLM)生产工具包 Lunary 的两个漏洞:CVE-2024-7474 (CVE-2024-7474) 和 CVE-2024-7474(CVE-2024-7474)。

  • CVE-2024-7474(CVSS 得分:9.1):一个不安全的直接对象引用 (IDOR) 漏洞,可允许已通过身份验证的用户查看或删除外部用户,导致未经授权的数据访问和潜在的数据丢失
  • CVE-2024-7475 (CVSS 得分:9.1):访问控制不当漏洞,允许攻击者更新 SAML 配置,从而有可能以未经授权的用户身份登录并访问敏感信息。

在 Lunary 中还发现了另一个 IDOR 漏洞(CVE-2024-7473,CVSS 得分:7.5),该漏洞允许恶意行为者通过操纵用户控制参数来更新其他用户的提示。

Protect AI 在一份公告中解释道 :攻击者以用户 A 的身份登录并拦截更新提示符的请求,通过将请求中的'id'参数修改为属于用户 B 的提示符的'id',攻击者可以在未经授权的情况下更新用户 B 的提示符。

第三个严重漏洞涉及 ChuanhuChatGPT 用户上传功能中的路径遍历漏洞(CVE-2024-5982,CVSS 得分:9.1),该漏洞可能导致任意代码执行、目录创建和敏感数据暴露。

LocalAI是一个开源项目,允许用户运行自托管的LLM,该项目还发现了两个安全漏洞,可能允许恶意行为者通过上传恶意配置文件执行任意代码(CVE-2024-6983,CVSS评分:8.8),以及通过分析服务器的响应时间猜测有效的API密钥(CVE-2024-7010,CVSS评分:7.5)。

Protect AI 表示,该漏洞允许攻击者执行定时攻击,这是一种侧信道攻击,通过测量处理不同 API 密钥请求所需的时间,攻击者可以逐个字符推断出正确的 API 密钥。

此外,还有一个影响 Deep Java Library(DJL)的远程代码执行漏洞,该漏洞源于软件包的 untar 函数中的任意文件覆盖漏洞(CVE-2024-8396,CVSS 得分:7.8)。

该漏洞可能会导致代码执行和数据篡改。英伟达在发布补丁修复其NeMo生成式人工智能框架中的路径遍历漏洞(CVE-2024-0129,CVSS评分:6.3)的同时,也披露了这一漏洞。建议用户将其安装更新到最新版本,以确保其 AI/ML 供应链的安全并防范潜在攻击。

漏洞披露之前,Protect AI 还发布了开源 Python 静态代码分析器 Vulnhuntr,该分析器可利用 LLM 在 Python 代码库中查找零日漏洞。

Vulnhuntr 的工作原理是在不影响 LLM 上下文窗口(LLM 在单个聊天请求中可解析的信息量)的情况下,将代码分解成小块,从而标记出潜在的安全问题。

Dan McInerney 和 Marcello Salvati 说:它会自动在项目文件中搜索可能最先处理用户输入的文件。然后,它会摄取整个文件,并回复所有潜在漏洞。

利用这份潜在漏洞清单,它将继续完成从用户输入到服务器输出的整个函数调用链,对整个项目中的每个潜在漏洞逐个函数/类进行分析,直到它对整个调用链感到满意,才能进行最终分析。

撇开人工智能框架的安全漏洞不谈,Mozilla 的 0Day 调查网络(0Din)发布的一项新越狱技术发现,以十六进制格式和表情符号编码的恶意提示可用于绕过 OpenAI ChatGPT 的防护措施,并对已知的安全漏洞精心设计漏洞利用。

安全研究员马尔科-菲格罗亚(Marco Figueroa)说:越狱策略利用了语言漏洞,指示模型处理一项看似无害的任务:十六进制转换。由于该模型经过优化,可以遵循自然语言的指令,包括执行编码或解码任务,因此它本质上并没有意识到转换十六进制值可能会产生有害输出。

出现这一漏洞的原因是,语言模型被设计为按部就班地执行指令,但缺乏深入的上下文意识,无法在其最终目标的大背景下评估每个单独步骤的安全性。

参考来源:Researchers Uncover Vulnerabilities in Open-Source AI and ML Models

本文为 独立观点,未经允许不得转载,授权请联系FreeBuf客服小蜜蜂,微信:freebee2022


文章来源: https://www.freebuf.com/news/414008.html
如有侵权请联系:admin#unsafe.sh