谷歌宣布扩大其漏洞奖励计划(VRP),以补偿研究人员发现针对生成人工智能(AI)系统的攻击场景,以增强人工智能的安全性。
谷歌的 Laurie Richardson 和 Royal Hansen表示:“与传统数字安全相比,生成式人工智能引发了新的、不同的担忧,例如可能存在不公平偏见、模型操纵或数据误解(幻觉)。”
范围内的一些类别包括即时注入、训练数据集中敏感数据的泄漏、模型操纵、触发错误分类的对抗性扰动攻击和模型盗窃。
值得注意的是,谷歌今年 7 月初成立了人工智能红队,作为其安全人工智能框架 ( SAIF ) 的一部分,帮助解决人工智能系统面临的威胁。
作为其对安全 AI 承诺的一部分,还宣布努力通过现有的开源安全计划(例如软件工件供应链级别 (SLSA) 和Sigstore)来加强 AI 供应链。
谷歌表示:“数字签名,例如来自 Sigstore 的数字签名,可以让用户验证软件没有被篡改或替换。”
“诸如 SLSA 来源之类的元数据告诉我们软件中包含什么以及它是如何构建的,从而使消费者能够确保许可证兼容性、识别已知漏洞并检测更高级的威胁。”
这一发展正值 OpenAI推出了一个新的内部准备团队,以“跟踪、评估、预测和保护”生成型人工智能的灾难性风险,涵盖网络安全、化学、生物、放射性和核 (CBRN) 威胁。
两家公司与 Anthropic 和微软一起还宣布设立1000 万美元的人工智能安全基金,专注于促进人工智能安全领域的研究。
转自安全客,原文链接:https://www.anquanke.com/post/id/291088
封面来源于网络,如有侵权请联系删除