邬江兴院士:人工智能内生安全质量检测中试平台
嗯,用户让我总结一下这篇文章的内容,控制在一百个字以内,而且不需要用“文章内容总结”之类的开头。直接写描述就行。 首先,我需要快速浏览文章,抓住主要信息。文章讲的是2026年在成都举办的网络安全等级保护技术学术交流活动,主办方是四川警察学院和公安部的网络安全等级保护中心。主题是“科技赋能·筑基强网”,讨论了新时代网络安全等级保护制度的深化实施、技术创新和人才培养。 邬江兴院士在会上发表了主旨演讲,内容涉及人工智能内生安全质量检测中试平台的建设路径。他强调了内生安全理论的重要性,认为安全性应该由构造自身效应保证,而不是事后修补。他还提到安全检测是AI规模化落地的关键,并分析了AI安全质量检测的核心矛盾,比如不确定的安全边界、冯·诺依曼结构的缺陷、大模型的风险等。 此外,邬院士提出了内生安全的新范式,基于结构决定安全的原则,通过动态异构冗余构造来应对不确定威胁。他还介绍了AI内生安全检测的核心机理和中试平台的建设构想,以及活动中的其他重要内容,比如颁发第五级信息系统备案证明和发布白皮书。 现在需要把这些信息浓缩到100字以内。重点包括活动名称、主题、邬院士的演讲内容、内生安全理论、AI检测平台以及活动成果。 可能的结构:活动名称、主题、邬院士演讲主题、内生安全理论、AI检测平台建设以及颁发证明和发布白皮书。 检查字数是否在限制内,并确保信息准确无误。 </think> 2026年网络安全等级保护技术学术交流活动在成都举办,探讨新时代网络安全等级保护制度的深化实施与技术创新。邬江兴院士发表主旨演讲,提出人工智能内生安全质量检测中试平台建设路径,并强调内生安全理论的重要性及AI规模化应用的安全挑战。 2026-2-2 08:22:46 Author: www.freebuf.com(查看原文) 阅读量:0 收藏

freeBuf

主站

分类

云安全 AI安全 开发安全 终端安全 数据安全 Web安全 基础安全 企业安全 关基安全 移动安全 系统安全 其他安全

特色

热点 工具 漏洞 人物志 活动 安全招聘 攻防演练 政策法规

2026年网络安全等级保护技术学术交流活动日前在成都举办。活动由四川警察学院、公安部网络安全等级保护中心主办,以“科技赋能·筑基强网”为主题,探讨新时代网络安全等级保护制度的深化实施、技术创新与育才强基新举措。

邬江兴院士发表主旨演讲

会上,中国工程院院士邬江兴发表题为《人工智能内生安全质量检测中试平台》的主旨演讲,强调,内生安全理论是让安全性由构造自身效应而非后验迭代修补来保证,并进一步提出人工智能内生安全质量检测中试平台建设路径,提出以内生安全理论为支撑,构建科学完备的AI安全质量检测体系,为人工智能规模化、安全化应用筑牢根基。

邬江兴院士在演讲中强调,安全检测是打通AI规模化落地应用“最后一公里”的关键抓手。当前,全球人工智能竞争的本质是一场规模化渗透应用的耐力比拼,而安全可信正是AI赢得市场信任、实现广泛落地的关键。无论是大众用户对“敢用AI”的信任需求,行业对“敢推AI”的认证需求,还是政府对“能管AI”的监管需求,都迫切需要建立一套有公信力的安全质量评测标准。

AI安全质量检测的核心矛盾

邬江兴院士深入分析了AI安全质量检测的核心矛盾,指出其第一性问题是内生的不确定安全边界。AI系统的数字化“底座”基于冯・诺依曼存储程序控制构造,先天存在设计缺陷,安全边界难以界定;而大模型的风险根植于统计学本质,“幻觉”现象本质上无法根除。更突出的是,AI是“概率性选择生成”而非“确定性计算”,叠加算法模型带来的不可解释性、不可判识性、不可推论性“三不可”问题,导致传统治理模式陷入困境——自律模式难以覆盖整体不确定安全边界,他律模式则面临“管不完、管不了”的认知不匹配问题,最终形成“测不准、测不全、难评估”的技术瓶颈。

内生安全新范式

邬江兴院士提出,内生安全是应对不确定威胁的安全新范式。这一范式以“结构决定安全”为基石,以动态异构冗余构造为核心,经过了多学科交叉的数学证明与实战验证:在信息论视角下,创建“结构编码/环境加密”新体制,实现类似“一次一密”的完美安全;在控制论层面,证明DHR架构具备随机稳定性、指数稳定性与超稳定性,受扰后可重建稳定状态;在博弈论维度,架构具备纳什均衡解与双盲效应,大幅压缩攻防博弈空间;在系统论视角下,内生安全的DHR架构能在状态空间构建一种特殊的拓扑结构,使攻击轨迹被莫比乌斯环式的动力学约束。实战中,连续八届“强网”拟态防御国际精英挑战赛见证,内生安全构造系统面对全球顶尖白帽黑客与AI攻击智能体,始终保持“不坏金身”,充分验证了技术的有效性。

AI内生安全检测核心机理

邬江兴院士介绍了AI内生安全检测的核心机理,其本质是如何将AI不确定性风险转化为相对确定的可量化检测指标?内生安全质量检测基于 “必要多样性原理”和“相对正确公理”,构建多元AI主体的共识机制与交叉验证监督集群,让新型安全风险能够被量化评估与检测。借鉴人类社会的治理模式,形成“AI合规检测+AI共识判断”的双重保障。理论验证和技术验证表明,已在自动驾驶、智能电视等场景完成原理验证,实现智能决策的可控可信,让AI在保持创新活力的同时守住安全底线。

人工智能内生安全质量检测中试平台建设构想

最后,邬江兴院士全面提出人工智能内生安全质量检测中试平台的建设构想。平台以“内生安全+外部验证”互促为核心,打造面向多平台的“一套平台、多域复用”检测孵化器,实现AI不确定风险向可量化的确定性检测理论、技术、平台和体系的转化,建设包含规则与共识生成、检测平台构建及安全隔离床等基础设施,通过多样化引擎的协同工作,实现对AI全生命周期的安全检测。人工智能内生安全质量检测中试平台将覆盖AIGC、AIGA等多场景测试,最终催生AI质检新赛道、培育保险新业态、升级服务新模式,推动AI应用进入“4S店时代”,为大模型与智能体在更大范围、更深层次的应用落地提供稳定可靠的信任支撑。

活动其他重要内容

活动现场还颁发了我国首个第五级信息系统备案证明,并同步发布《生成式人工智能网络安全等级保护与检测技术白皮书》。此外,还设“等级保护三十年”技术成就回顾,呈现在网络安全等级保护制度推动下中国网络安全技术攻坚克难、创新蝶变的峥嵘岁月,助力推动等级保护工作升级换代,由被动防御向主动防御、单点防护向全面防护、静态防护向动态防护、外部防护向内生安全转移,推动“安全左移”与“安全即代码”,从源头提升系统韧性。

本文为 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf 客服小蜜蜂(微信:freebee1024)


文章来源: https://www.freebuf.com/articles/469326.html
如有侵权请联系:admin#unsafe.sh