
思科系统公司旗下专注于构建基础人工智能技术的研究与工程团队——思科基金会AI今日宣布推出一套全新的Agentic安全工具套件。该系列工具旨在帮助企业保护日益自主化、互联化并深度嵌入业务流程的AI系统安全。
应对AI安全新挑战
随着AI系统逐渐覆盖云平台、内部系统和外部数据源,安全团队正面临保护AI驱动环境的严峻挑战。思科基金会AI团队指出,传统安全方法难以跟上现代AI工作流的速度和复杂性,特别是在Agentic AI系统开始自主决策和执行操作时。
三大核心产品发布
1. Foundation-sec-8B-Reasoning推理模型
此次发布的重磅产品是专为网络安全用例打造的开源权重推理模型Foundation-sec-8B-Reasoning。与通用语言模型不同,该模型针对多步骤安全分析进行了优化,包括威胁建模、攻击路径分析和事件调查。该模型能生成显式推理轨迹,使分析人员能够理解结论的推导过程,满足高影响安全环境中的验证、信任和监管要求。
2. 自适应AI搜索框架
思科还推出了自适应AI搜索框架,这是一个基于推理的信息检索系统,旨在突破静态查询搜索的限制。该框架允许AI模型在新信息出现时迭代优化搜索策略,其工作方式类似于人类安全专家。通过使AI系统在处理不完整、嘈杂或碎片化数据源时调整调查路径,该框架可提升威胁情报分析和事件响应能力。
3. PEAK威胁狩猎助手
第三项发布是开源Agentic AI助手PEAK威胁狩猎助手,旨在自动化威胁狩猎准备工作。它通过协作的AI Agent团队研究威胁行为者和技术,分析内部安全数据,并生成定制化的分步威胁狩猎计划。思科基金会AI强调,PEAK保持了人类在环机制,确保安全团队保留对决策、模型和数据访问的控制权。
战略定位与愿景
思科基金会AI副总裁Yaron Singer在博客中表示:"推理模型、AI搜索框架和PEAK共同体现了思科基金会AI如何通过解决AI与安全交叉领域的基础性挑战产生重大影响。思科的方法强调开放、安全原生的基础架构、企业可部署性和架构严谨性。"
参考来源:
Cisco Foundation AI debuts agentic security tools to protect autonomous AI systems
本文为 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf
客服小蜜蜂(微信:freebee1024)

