邮发代号 2-786
征订热线:010-82341063
文 | 中国社会科学院大学互联网法治研究中心 刘晓春 许冷玉洁随着人工智能技术在现代社会的广泛应用与快速发展,其安全问题日益凸显,成为社会各界共同关注的焦点。2024年9月9日,全国网络安全标准化技术委员会(以下简称“网安标委”)发布了《人工智能安全治理框架》(以下简称《框架》),为应对人工智能产业发展和安全治理的时代需求提供了重要指导。作为一份人工智能治理的系统性和标杆性文件,《框架》明确了治理原则、框架构成、安全风险分类、技术应对措施、综合治理措施以及开发应用指引,具有全面性、指导性、前瞻性的特点,旨在推动人工智能的安全、透明、可控发展,勾勒出人工智能安全治理的中国图景。《框架》以其内容的全面性和体系化为特色,对人工智能全生命周期的风险进行了细致分类,并通过构建可追溯、可解释的机制,提升人工智能透明度。同时,《框架》对相关主体进行明确划分并精准压实治理责任。从原则和框架层面,《框架》为人工智能安全治理提出了清晰的理念和基础,致力于打造全过程、全要素的治理链条,培育安全、可靠、公平、透明的人工智能技术研发和应用生态,推动其健康发展和规范应用。在原则方面,提出了“包容审慎、确保安全”“风险导向、敏捷治理”“技管结合、协同应对”“开放合作、共治共享”四条原则。这些原则不仅指明了宏观定位与导向,还涉及具体的实现路径,并强调多方共治机制。在治理框架构成方面,《框架》涵盖安全风险、技术应对措施、综合治理措施和安全开发应用指引四个部分,通过界定风险类别,设计双重应对措施,并提供具体指引,形成了严谨而完整的治理体系。一、覆盖全生命周期的人工智能风险分类具有全面性和体系性
风险分类体系作为《框架》的关键组成部分,对全面理解和有效管理人工智能安全风险具有重要意义。在《框架》第三部分中,人工智能安全风险被细致分类,系统地涵盖了各个环节可能面临的风险。通过探讨风险分类体系的构建方式、涵盖范围、内在逻辑以及实际应用价值,这一体系为人工智能安全治理的研究与实践提供了有益的参考。
首先,《框架》的风险分类体系覆盖了人工智能从研发到应用的全生命周期。从最初的模型算法设计阶段,考虑到可解释性差、偏见歧视、被窃取篡改等风险;在训练数据环节,涉及违规收集、不当内容、标注不规范和泄露等风险;系统层面关注缺陷后门、算力安全和供应链安全风险;在应用阶段,全面分析了网络域、现实域、认知域和伦理域的各类风险。这种全生命周期的风险考量确保了不会遗漏关键环节,为全面治理人工智能安全风险提供了完整的视野。其次,风险分类体系内外区分明确。该体系清晰划分了内生安全风险和应用安全风险。内生安全风险聚焦于人工智能技术自身的缺陷和不足,如模型算法的复杂逻辑导致的可解释性差、因训练数据问题产生的偏见等,这些问题源自技术内部的固有问题。应用安全风险则着眼于人工智能在实际应用场景中的各种风险,包括网络域的信息传播风险、现实域对传统行业和社会安全的影响、认知域对用户认知的干扰,以及伦理域对社会价值观和秩序的挑战等。内外风险的明确区分有助于相关主体清晰认识风险产生的根源,从而采取相应的治理策略。此外,风险分类体系与行业应用紧密结合。该体系覆盖了技术和生活的各个行业,从金融等民生传统领域,到自动驾驶、智能诊疗等新兴领域,都考虑到因模型幻觉、算法决策错误等因素对用户和社会造成的威胁。同时,还涉及了政府、企业等机构和组织在使用人工智能时引发的信息泄露、网络攻击等风险,以及滥用人工智能对国家安全、经济安全、公共卫生安全等带来的潜在风险。这种结合使风险分类更贴合实际,能够为各行业在应用人工智能时提供具体的风险预警和防范方向。最后,风险分类体系结合了技术发展趋势。人工智能的发展不断深入,尤其是生成式人工智能的出现,除了信息和数据的搜集、泄露和传播风险以外,还可能造成认知、伦理等层面的风险,甚至可能被用于违法犯罪活动、战争活动等。此类风险还包括可能加剧社会鸿沟、挑战传统社会秩序、产生自我意识从而脱离控制等。人工智能的使用程度越深,意味着风险的危害程度越高。该框架从网络域、现实域、认知域和伦理域四个层面,层层递进地列举了应用人工智能的风险,从而为实施全面有效的防范提供指导。随着人工智能开发和应用的深入发展,可能引发新类型的风险。《框架》在后续有望进行持续动态更新,例如关注不同类型风险间的互动关系,重点考察复杂风险的传导机制。此外,目前《框架》中的风险分类主要着眼于定性描述,可以在此基础上考虑引入对风险发生概率、影响程度等的定量评估,并根据人工智能的发展在后续进一步完善。在应对风险和综合治理层面,《框架》提出了人工智能可追溯、可解释的治理措施,有利于提高人工智能的透明度,减少黑灰盒模式推理过程对溯源和归责带来的困难。
首先,《框架》旨在建立可追溯的管理制度。在人工智能安全治理中,可追溯性是指能够追踪人工智能系统从数据收集、模型训练、部署到应用的整个过程中各个环节的信息和操作,以及相关主体的责任。其目的是当出现安全问题或不良后果时,可以准确地找到问题的根源、确定责任主体,并采取有效的措施进行纠正和改进。《框架》在第五部分将追溯管理制度作为综合治理的措施之一,通过数字证书技术标识进行管理,明确标识规范,确保标识要求能够全面覆盖生产、传播、分发等各环节,减少用户判断信息来源和真实性的成本。同时,《框架》还明确要求人工智能研发者提供相应的责任说明文件,并赋予人工智能服务提供者检查相关文件的义务,使责任链条可以追溯到递归采用的人工智能模型。其次,《框架》鼓励推进人工智能可解释性研究。可解释性是指人工智能系统的决策过程和输出结果能够以人类可理解的方式进行解释和说明。它有助于建立人类对人工智能系统的信任,使人们能够理解和验证系统的行为是否符合预期、是否存在偏见或错误。《框架》第五部分指出,应当“从机器学习理论、训练方法、人机交互等方面组织研究人工智能决策透明度、可信度、纠错机制等问题,不断提高人工智能可解释性和可预测性,避免人工智能系统意外决策产生恶意行为。”这是提高人工智能透明度的有效举措,能够加深大众对人工智能决策的理解,进而保证其可控和安全。同时,《框架》从技术应对和综合治理两方面推进了可追溯性、可解释性的现有治理路径。目前,我国已出台《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等规定,以及近期发布《人工智能生成合成内容标识办法(征求意见稿)》,用于建立和完善人工智能标识制度。《框架》在技术应对和综合治理方面所提出的治理措施,切合了当下法规的治理路径,对人工智能标识制度的完善和发展起到有利推动作用。标识在人工智能安全治理中能够对人工智能系统、其生成的内容以及相关操作过程进行标记和注明,以便用户、监管者和其他相关方能够识别和区分不同的系统、内容和操作,同时了解其属性、来源、适用范围、安全风险等重要信息。多环节的标识有利于溯源治理,从而保证发布的信息来源清晰,增强信息的可信度,降低安全风险造成的损失。概言之,《框架》由内而外地提高了人工智能追溯和解释的可能性,与现有的法律法规和制度相呼应,有利于提高人工智能的透明度,提高公众对技术的信任度,提供了十分鲜明的中国治理方案和思路。《框架》的另一大亮点在于第六部分“人工智能安全开发应用指引”。这一部分将人工智能的治理主体详细地分为了模型算法研发者、人工智能服务提供者、重点领域使用者和社会公众这四大主体,涵盖了人工智能模型的研发、应用与传播等各个环节,与第三部分风险分类体系的思路相似,覆盖了人工智能的全生命周期,使整体的指引逻辑自成体系。
人工智能涵盖从基础模型算法研发、数据处理到产品服务提供及最终应用的多个环节,各环节专业性强且技术复杂。不同主体在各环节承担了不同的职责,其中复杂的交互为治理带来了困难。根据各主体的不同特点,有针对性地进行指引,能够提高治理措施的精准性,避免风险在各环节传递和放大。同时,明确各主体在人工智能安全治理中的责任是保障系统安全稳定运行的关键。在复杂的人工智能生态系统中,若责任不清,各主体在产业链中对其安全责任缺乏预期,出现安全问题时容易产生互相推诿,导致问题无法及时解决。通过明确主体划分、压实各自治理责任,清晰界定每个主体的责任范围,例如研发者对算法安全性负责,服务提供者对用户数据保护和服务质量负责等,确保责任落实到位,提高安全治理效率和效果。基于主体角色差异构建指引体系,以全流程安全保障为核心逻辑线索,是人工智能安全开发应用指引的基本逻辑。模型算法研发者是人工智能系统的源头创造者,其工作直接决定了系统的基础架构和性能特点,因此安全开发指引着重于研发过程中的理念遵循、数据处理、环境安全、算法评估、版本管理和测试等方面,旨在从源头上确保系统的安全性、可靠性和合规性。人工智能服务提供者作为连接研发与用户的桥梁,其主要职责是向用户提供产品和服务,所以安全指引聚焦于保障用户权益,包括信息公开、风险监控、用户支持、责任追溯以及对用户影响的评估等,以确保服务过程中的安全与稳定。重点领域使用者将人工智能应用于关键行业和领域,直接涉及公共安全和公民生命健康安全,因而其操作和决策对社会公共安全和利益有着重大影响。安全应用指引围绕风险评估、系统审计、安全操作、监督管理和应急处置等方面,强调在高风险应用场景下的安全保障和责任担当。社会公众是人工智能产品的最终使用者,用户的安全意识和使用行为直接关系到自身权益和社会整体安全。安全应用指引主要关注公众的安全认知提升、产品选择、信息保护、风险防范以及对特殊人群影响的关注等,旨在提高公众在使用人工智能产品时的自我保护能力。安全开发应用指引的整体思路,切合了第三部分对于风险的分类,回应了人工智能治理中应当增强可追溯性、可解释性的要求,明确了各主体的责任,并为各个主体提供了可落地风险规避思路,使得不同主体在实践中有更具体的操作方向。指引具有现实可操作性,能够提高人工智能的治理效率,增强其安全应用的保障,降低各环节的不确定性和安全风险发生的可能。《框架》从全面风险分类、完整追溯机制构建到分主体治理模式明确,具有科学性、前瞻性和实用性,为人工智能安全治理提供了具体的行动指南,标志着我国在人工智能安全治理领域迈出了重要一步,也为全球人工智能产业的可持续发展贡献了中国智慧和解决方案。
习近平总书记明确指出,人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题;要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。《框架》1.0 版本的发布,切合了加强人工智能治理的时代需要,系统全面地为人工智能的发展提供技术、管理和应用方面的指导,为人工智能的安全发展奠定了坚实基础,同时有利于新质生产力的发展,促进技术和产业的有序迭代升级。未来,随着技术的进步,《框架》也应基于可持续的新发展理念,对风险和应对措施进行动态调整,从而保证人工智能的安全健康发展。(本文刊登于《中国信息安全》杂志2024年第10期)
分享网络安全知识 强化网络安全意识
欢迎关注《中国信息安全》杂志官方抖音号
文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664235572&idx=1&sn=dc0f0b68ab098c7474cac7003ddb5850&chksm=8b5800cdbc2f89db103092b5ad8ead4517157a723f25a6352a971228af10a14eab487b2f313b&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh