专题·人工智能安全治理 | 人工智能安全治理的中国认知与方案
2025-1-22 10:41:0 Author: mp.weixin.qq.com(查看原文) 阅读量:0 收藏

 扫码订阅《中国信息安全》

邮发代号 2-786

征订热线:010-82341063

文 | 中国政法大学教授 张凌寒
近年来,人工智能技术迅速发展,在推动社会经济进步的同时,也带来了安全隐患与风险挑战。2023 年 10 月,我国面向世界提出《全球人工智能治理倡议》(以下简称《倡议》),系统阐述了人工智能治理的中国方案。《倡议》呼吁不断提高人工智能技术的安全性、可靠性、可控性与公平性,倡导建立具有广泛共识的治理框架和标准规范。2024 年 9 月,《人工智能安全治理框架》(以下简称《框架》)发布,内容涵盖治理原则、框架构成、风险分类、技术应对、综合治理和安全指引六个部分,较为全面地总结了中国人工智能安全治理的经验和观点。《框架》以鼓励人工智能创新发展为要旨,协调政府、国际组织、企业、科研院所、民间机构和社会公众等各方达成广泛共识,为人工智能风险防范化解和监督管理等提供重要指引。

一、立足本土治理认知,构建风险分类体系

总体国家安全观是国家安全工作的指导思想,融合贯通人民安全、政治安全、国家利益至上的有机统一,不断推动中国特色国家安全理论构建和实践。人工智能技术的应用已经超越产业领域,不断向军事、政治、经济等领域扩散,展现出巨大发展潜力同时也意味着全面而深刻的安全格局变化。人工智能技术天然地与安全议题联系,其适用性的延伸使得在认知领域、生产领域的内生风险逐渐显现,通用人工智能已被证实可以介入致命武器生产、意识形态争端或深刻地改变社会生产结构。人工智能安全涉及综合网络安全、数据安全等多个方面,直接关系到国家政治、经济活动的安全可控。特定的安全领域往往指向人工智能技术的应用服务场景,人工智能安全治理需要在综合治理框架内展开,避免治理缺漏与职能重叠。《框架》以总体国家安全观为基础,结合人工智能安全治理认知与实践经验,构建本土安全风险分类体系,推动形成人工智能全周期安全治理格局。

《框架》沿风险治理思路,系统梳理了人工智能安全风险类型,为有效识别人工智能安全风险提供了重要依据。《框架》将人工智能安全风险分为内生安全风险与应用安全风险两个层次,涵盖人工智能训练、部署、更新、维护等多个阶段。内生安全风险源自人工智能技术的构成要素和固有特性,包括偏见歧视风险、对抗攻击风险等由模型算法缺陷导致的风险类型,训练数据的违规使用、泄露或遭受“投毒”等数据安全风险,以及大规模后门攻击、算力短缺、供应链中断等系统风险。《框架》注意到人工智能集成了多项信息技术,提出与当前人工智能产业发展瓶颈关联的系统风险,涉及对人工智能技术发展可控性的关注,为战略层面的产业治理提供了重要依据。
应用安全风险源自与人工智能的交互过程,表现为人工智能在不同社会场域内被异化,此类风险的规模与形式会随人工智能应用的不同领域而变化。为了强化对应用安全风险的认知把握,《框架》划分出网络域、现实域、认知域、伦理域四大场域,囊括信息内容安全风险、网络攻击风险、强化“信息茧房”效应、用于违法犯罪活动、用于争夺认知主导权等常见的应用安全风险类型。能否准确鉴别风险类型和性质关系到治理路径的选择,《框架》针对已有风险类型的新表现形式和人工智能技术引入的场域风险新类型,构建了不同的治理方案。信息内容安全风险、网络攻击风险、丧失认知主导权风险等传统场域风险在人工智能技术背景下加剧,人工智能的介入并未改变这些风险的根本属性,但改变了风险产生、扩散的路径。模型服务易于获取的属性降低了利用人工智能实施网络攻击、电信诈骗、侮辱诽谤等违法犯罪活动的技术门槛,向网络安全治理提出了挑战。人工智能强大的内容生产能力则使“认知战”的影响规模进一步扩大、程度进一步加深。各界已认识到人工智能的性能表现与训练数据的规模、质量紧密相关,数据弱势会转化为模型弱势,而具有数据优势的文化能够借助人工智能技术扩大其认知影响。例如,英文训练数据体量对其他语种数据呈现绝对优势,这不仅导致使用英文作为提示词的用户可以得到更好的回应,还导致模型生成合成内容体现了语料库来源的价值观体系。
在安全风险类型增量方面,人工智能伦理域风险广受关注。近两年,“死者复生”“虚拟伴侣”等人工智能服务进入大众视野,人工智能正在微妙地改变人机交互关系。高性能模型能够满足人们多样化的情感需求,给人带来强大的真实感。然而,它同时也带来了冲击社会伦理共识、加剧社会歧视或智能鸿沟的风险:对人群的标签化处理可能借由人工智能转变为结构性的社会歧视,进一步破坏社会伦理共识。“复活逝者”“虚拟歌手”“虚拟恋人”等应用方式可能颠覆传统的人格观与人机关系,对伦理产生重要影响。《框架》特别提出伦理域安全风险类型,符合当前伦理先行的治理理念,也与我国人工智能治理经验相符。总体来看,《框架》的风险分类方案细致全面,内生风险和应用风险的界分体现了我国对人工智能风险的认知衡量,有利于框架的贯彻落实。

二、尊重技术发展规律,践行双重治理路径

近年来,全球各国积极建立人工智能风险分类标准,旨在精准规制技术风险。美国国家标准与技术研究院(NIST)发布了《人工智能风险管理框架》(AI RMF 1.0)系列指南,为安全、可靠和可信的人工智能开发和使用提供技术方案。AIRMF 系列指南关注人工智能开发过程中的数据隐私保护、环境资源消耗等,提出治理人工智能被用于制作煽动仇恨、暴力、儿童色情等内容的风险。新加坡于 2024 年 5 月发布《生成式人工智能治理模型框架》,从数据、可信开发与部署、事件报告等方面入手,主张建立问责制以确保人工智能技术造福公众。《框架》采取有别于上述文件的全面视角,提出技术应对和综合治理的双重路径,分别从微观和宏观两个层次指导风险治理,为产业一线提供行动指南的同时,还为政策制定、战略部署提供参考视角。

尊重技术发展规律,采纳制定安全开发规范、核查训练数据、共享安全风险信息等体现创新与监管相平衡理念的治理手段是《框架》的亮点。上述技术应对措施具有较高的可操作性,可以为开发企业等提供风险治理指引,为产业提供安全创新空间。综合治理措施则着眼人工智能技术的长远发展,包括实施人工智能应用的分类分级、建立人工智能服务可追溯管理制度、强化人工智能供应链安全保障、参与人工智能国际治理等宏观治理方案。综合治理措施强调多方共同治理,主张政府、企业、科研院所、民间机构、社会公众等各方的广泛参与。技术应对措施和综合治理措施的双重治理路径兼顾短期、长期治理需要,体现技管结合、协同应对的治理原则,为我国人工智能治理体系建构提供了重要参考。
在技术应对和综合治理之外,《框架》设置了研发者、服务提供者、重点领域使用者和社会公众的安全应用指引。《框架》第六章向研发者提出十项指引,涵盖科技伦理审查、模型评估评测、听取公众反馈、数据综合管理等诸多方面,堪称“人工智能安全开发十条”。对服务提供者这一中间角色,《框架》提出其应注重人工智能产品与服务的公开、透明,以及在面临故障、攻击时的安全性和功能性,确保风险处于可知、可控范围内,例如公开产品和服务的能力、局限性,建立风险监控机制、安全风险评估机制等。针对重点领域使用者,《框架》提出事前的应用风险评估与定级,使用者需要论证部署人工智能应用的必要性和安全性,还应当建立审计和决策记录机制,杜绝技术滥用。重点领域使用者需要避免完全依赖人工智能系统的决策,保证人工智能系统和传统决策系统之间能够相互切换。《框架》还提出社会公众应当树立个人保护意识,加强对人工智能系统风险的认知。建议用户避免向模型输入敏感信息、避免未成年人过度使用模型服务,还提出对模型输出内容保持谨慎态度、选择信誉良好的人工智能应用也是提升使用安全性的有效措施。
安全应用指引体现“安全嵌入设计”理念,与负责任人工智能具有相似的内涵,提出开发者、服务提供者、重点领域使用者和社会公众四重角色的安全指南,旨在将安全治理嵌入开发、服务提供和使用的全链条,构建多主体共同参与的治理模式。技术措施和综合治理构成的双重治理路径,结合针对不同主体设置的安全应用指引,将治理原则转化为明确、详细的行动指引,对产业发展、安全监管、合法使用均有重要的参考价值。

三、开展治理系统工程,着力引导智能向善

《框架》是一项系统工程的阶段成果,它以治理实践形成的认知为基础,形成一系列原则和规则,提出了不同路径下的治理手段。它体现了我国人工智能治理进入理念变革、制度创新、手段统合的新阶段,凝聚人工智能治理的本土经验和智慧。该系统工程应当不断更新和完善,以适应新的治理需求。人工智能技术对生产模式、劳动力市场及文化产业发展等方面具有深远影响,实施有效的安全治理不仅是保障技术安全可控性的必要条件,更是推动社会经济健康发展的关键因素。《框架》嵌入在我国“以人为本、智能向善”为核心的人工智能治理理念中,体现包容审慎、确保安全,风险导向、敏捷治理,技管结合、协同应对和开放合作、共治共享四大治理原则,并且是《全球人工智能治理倡议》的细化行动指南,对于产业发展和监管意义重大。

引导智能向善是我国人工智能治理的重要目标,是“以人为本”理念的自然要求。通过多样方式实现产业引导,是当前世界各国人工智能治理探索的主题。技术标准和指导文件在产业发展规划和引导中发挥着重要作用,应当发挥技术规范的共识凝聚作用,加快推进《框架》的落实,完善人工智能应用安全治理体系。一是推进基础标准的制定,提出符合技术现状和治理需要的技术实施方案,协调人工智能服务、训练数据处理、生成合成内容标识等技术标准的统一,为技术活动提供基本规则;二是强化重点领域内人工智能应用监管,建立能源、金融、国防等重点领域人工智能应用的红线安全要求,参考《框架》提出的重点领域使用者指引开展专项监管。同时,在监管过程中引入技术工具,实现以技术治理技术;三是确保技术标准和指导文件的先进性与代表性,《框架》及其他的人工智能安全技术规范应当随技术的发展得到更新。人工智能技术发展势头迅猛,人工智能应用过程中产生的安全风险类型及形态可能变化。技术标准和指导性文件应当反映产业的最新、最广泛共识,更多企业、科研机构、公众代表应当参与到标准和指导文件的制定过程中,避免反向抑制发展或导致安全治理疏漏。

四、自信展示中国智慧,积极融入国际治理

在构建自身的人工智能治理体系过程中,我国始终秉持开放合作的态度,积极融入全球人工智能治理大局。《框架》秉承了《全球人工智能治理倡议》对广泛参与、协商一致、循序渐进的承诺,提出开放合作、共治共享原则,呼吁在全球范围内推动人工智能安全治理合作、共享最佳实践,倡导建立跨学科、跨领域、跨地区、跨国界的对话、合作平台。它不仅是国内治理体系的一部分,更应当被视为全球人工智能治理体系的重要组成部分。《框架》展现了我国在全球治理领域内的积极参与者角色,表达了我国希望在推进技术革新、发挥人工智能潜能的同时,控制潜在安全隐患、减少不利后果的愿望。《框架》自信地展示了我国对人工智能治理的独特见解与对策,再次体现了我国融入国际治理的积极态度,是我国人工智能国际治理实践的崭新成果。在《框架》的构想下,中国将不断深化人工智能国际治理合作,促成国际共识的形成,构建人类共同价值观和命运共同体。

(本文刊登于《中国信息安全》杂志2024年第10期)

分享网络安全知识 强化网络安全意识

欢迎关注《中国信息安全》杂志官方抖音号

《中国信息安全》杂志倾力推荐

“企业成长计划”

点击下图 了解详情


文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664235367&idx=1&sn=297855efd370925c872f5757635232be&chksm=8b58039ebc2f8a88688e473f6a44b4c239be99a0ba5386a09e21cf1d002e5dcdd7e2325f74a9&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh