OpenAI大幅缩短AI模型安全测试周期 专家警告或埋下隐患
OpenAI大幅缩短大型语言模型的安全测试周期,从数月压缩至数天甚至一周。专家警告此举可能影响模型质量并引发安全风险和声誉危机。尽管OpenAI改组了安全监督机构,但技术升级能否确保安全性仍存疑。 2025-4-14 06:39:14 Author: www.freebuf.com(查看原文) 阅读量:0 收藏

freeBuf

主站

分类

云安全 AI安全 开发安全 终端安全 数据安全 Web安全 基础安全 企业安全 关基安全 移动安全 系统安全 其他安全

特色

热点 工具 漏洞 人物志 活动 安全招聘 攻防演练 政策法规

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

OpenAI

以GPT系列、Codec、DALL-E和Whisper等AI项目闻名的OpenAI公司,近期被曝大幅压缩其大型语言模型(LLM)的安全测试周期。专家警告,这种为追求发布速度而牺牲安全评估的做法可能带来严重后果。

测试周期从数月骤减至数天

据《金融时报》报道,OpenAI目前仅给予内部员工和外部团队数天时间,用于评估最新LLM模型的风险与性能表现。而此前同类测试通常持续数月时间。八位熟悉OpenAI测试流程的知情人士透露,该公司已明显减少在安全测试方面的投入,无论是资源分配还是时间安排都大幅缩减。

测试周期缩短的典型案例体现在GPT系列模型上:GPT-4发布前经历了长达六个月的安全评估,而2024年5月推出的GPT-4 Omni模型测试阶段仅持续一周。Parekh咨询公司CEO帕雷克·贾恩指出:"AI领域竞争日趋白热化,科技公司正以惊人速度推出新模型。"

安全风险与声誉危机双重威胁

多位专家强调,压缩测试时间将显著影响首发模型质量。"如果出现模型幻觉或输出危害等事故,OpenAI将失去公众信任,面临产品发布受挫的困境。"贾恩分析道。他特别指出,OpenAI已因从非营利组织转型为营利企业面临形象危机,任何安全事故都可能强化"为利润牺牲安全"的负面认知。

测试参与者直言不讳地批评这种变化:有人将缩短测试称为"轻率之举"和"灾难配方";曾参与GPT-4测试的人员透露,某些潜在风险往往需要两个月才能被发现。虽然OpenAI未立即回应质询,但该公司在2024年9月已将安全委员会改组为独立的"董事会监督委员会",该机构有权出于安全考虑推迟模型发布。

技术升级或成双刃剑

贾恩提出另一种可能性:OpenAI或许正通过AI技术提升测试效率。"他们可能在内部流程中大量应用AI技术,试图以此加速模型发布。"这一推测得到OpenAI2024年12月声明的佐证,该公司当时宣称其AI测试模型正快速变得更加强大。然而,这种技术驱动的测试加速能否真正保障模型安全性,仍需实践检验。

参考来源:

Kritik an OpenAI: Experten warnen vor verkürzten Sicherheitstests

本文为 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf 客服小蜜蜂(微信:freebee1024)


文章来源: https://www.freebuf.com/articles/ai-security/427502.html
如有侵权请联系:admin#unsafe.sh