前沿 | 生成式人工智能技术风险审视与治理
2024-7-17 17:27:38 Author: mp.weixin.qq.com(查看原文) 阅读量:2 收藏

 扫码订阅《中国信息安全》

邮发代号 2-786

征订热线:010-82341063

文 | 共青团中央中国特色社会主义理论体系研究中心(黑龙江大学研究基地)研究员、黑龙江大学国外马克思主义研究中心研究员 刘炳序
数字时代,数字技术的治理呈现出“发展—治理”之间的普遍性矛盾,当数字技术在应用层面驶入“快车道”,在治理层面也将面临两难的境遇。正因如此,如何把握二者平衡成为数字技术治理的“时代之问”。科林格里奇曾对技术治理的两难境遇进行了辩证阐释:过早控制会抑制技术的爆发,过晚控制会导致技术的失控。生成式人工智能(AIGC)作为数字技术创新最活跃的领域之一,治理的“两难”境地尤为明显且复杂。就根源而言,在于生成式人工智能的高度“自律”,这种“自律”并非生成式人工智能固有,而是数字技术在演化过程中派生了“自律”特征。随着现代科学技术的不断进步,以生成式人工智能为代表的新一代人工智能技术呈现出鲜明的“利维坦”属性,在一定程度上加剧了“社会的技术权力失控对技术本质的反叛与掠夺”,正在逐渐脱离人类的认知和掌控。这种自主的、有目的的演化趋势在现代科技环境下更彰显出“自律”的主要特征。

“自律”特征加剧“科林格里奇困境”

技术的“自律”特征往往会衍生出“双刃剑”属性。就生成式人工智能而言,诸如数字技术迭代导致了技术生命周期的缩短、加剧了不同主体在数字化应用中的“使用鸿沟”,新型人机交互模式对人类劳动的替代效应,这些都是生成式人工智能“自律”特征的集中体现,对生成式人工智能技术风险的治理提出了新的要求。值得注意的是,生成式人工智能的“自律”特征主要来源于内嵌的技术逻辑。这是由于基于深度学习的生成式算法作为核心原理,致使生成式人工智能可以通过对多源数据的自动化感知和精准化处理来模拟人的思维,进而衍生出“自律”,能够实现思考决策与自主学习。

然而,这种“自律”并非能动性的自主意识,而是算法逻辑的功能性模仿。这种功能性衍生了其内在的“自律”属性,驱使生成式人工智能介入各领域发挥技术优势。在一定程度上讲,这也是“人类对技术的崇拜和技术无限扩张”的必然结果。但伴随内在功能的“自律”发展,会诱导人们逐渐落入“智能依赖”陷阱,促使人的意识逐渐机械化与边缘化,进而被“智能”所统治。显然,这种“自律”正在消解“技术服务于人”的最初目的。正如芒福德所认为,现代人的异化在于过度发展机器技术,过度依赖机器技术,过度高估了机器的能力,由“巨机器”创造的“机器神话”破坏了人与技术协调发展的平衡,技术取代了人的主体地位,变相成为一种“统治工具”。正因如此,治理生成式人工智能的技术风险,关键在于规制“自律”,弱化“统治”功能。

以理念引领“自律”

生成式人工智能的“自律”正在悄然改变人类对技术的传统认知,打破了传统的“技术中立”幻象,塑造了深度的“技术理性”,也随即僭越了原有“价值理性”。值得注意的是,生成式人工智能与人建构的交互模式,嵌入了人的多元价值观念并“不可避免地被内嵌特殊规则”,这在一定程度上被赋予了人的判断能力与选择能力。因此,要规制生成式人工智能的“自律”,应当从价值嵌入着手,完善价值纠偏,始终围绕人的主体性地位,坚持以“价值理性”引领“技术理性”,保障生成式人工智能始终服务于人,进而实现在人机博弈中把握主动,确保技术的发展方向符合人类的整体利益。

首先,要坚持“动态监管”。采取动态的监管方式,形成针对生成式人工智能“自律”行为的持续监控和调整的动态机制。这不仅包括对学习和决策过程的实时监控,还包括对其产生结果的动态监测。其次,要坚持“分段监管”。养成路径治理思维,形成产品应用路径、用户体验路径和技术治理路径等相对独立且并行不悖的通路,在主要风险点、技术迭代、投入应用等关键节点设置治理哨卡,按“规制—应用—体验”的次序严格把控。最后,要坚持“分层监管”。合理地“划分”治理层次、“区分”问题类别、“分解”实施对策,实现对治理过程的科学“分”化,完善流畅“分用户体验—分产品迭代—分领域开放—分情景治理”的治理链条,加强业界的社会责任感和主动治理意识,以开发者为起点自下而上厘定规制的“边界性问题”。

以技术优化“自律”

作为“社会化的技术权力”,“技术利维坦”实现对社会宰制的根本原因在于技术发展“失控”,激化了“物性”与“人性”的矛盾冲突,在很大程度上放大了技术的“自律”特征。因此,要规制生成式人工智能的“自律”,应当针对生成式人工智能的技术逻辑作出优化,推进技术向善,通过技术发展使生成式人工智能脱离“技术利维坦”并逐渐走上正轨。芬伯格始终反对传统技术哲学家们“亡羊补牢”的观点,他强调技术优化要具有前瞻性和全过程性,要消除潜在弊端以防患于未然。生成式人工智能的“自律”是以技术发展为基础所实现的,这对生成式人工智能的治理技术提出了新的要求。因此,生成式人工智能技术风险的治理也应当以治理技术发展为支撑,优化生成式人工智能的“自律”特征。

首先,推进算法黑箱呈现。针对深度学习算法决策的“黑箱”特性,制定算法服务的相关规则,阐述设计理念与内在机理,促使算法价值观以及设计结构的透明化呈现,并且使用可解释性强、理论基础扎实的模型,彰显算法模型的技术引领作用,实现“自律”特性成为用户监督下的“自律”。其次,加强算法技术把关。生成式人工智能的开发推广公司应当加强内部技术审查,建立职能技术机理审查、科技伦理审查、用户隐私保护核定、信息发布审核以及安全评估检测等管理制度与技术措施,建设科学标准的训练数据集,鼓励第三方语言检测处理模型的技术介入。最后,增加用户反馈系统。在人机交互的过程中,为生成式人工智能设置用户反馈算法,为用户设置对生成式人工智能输入信息、评估判断以及算法标注的单独端口,并对用户反馈情况进行筛选整合作为训练数据集的新构成,推动生成式人工智能数据结构的进一步优化。

以制度规范“自律”

技术发展的“泛智能化”趋势,激化了技术治理制度与技术迭代发展之间二元矛盾,随着生成式人工智能的广泛应用,原有人工智能治理制度滞后的现实问题由此显现。正如温纳强调,技术的相对自主性在一定程度上否定或弱化了人类对技术的控制权,要从克服技术对人立法、使人异化的基础上来重新设计并规制技术。因此,要规制生成式人工智能的“自律”,必须加强制度保障,完善法律规律体系,建立科学化、动态化、系统化的治理范式,以制度优势规范生成式人工智能走向真正的“自律”。

第一,要明晰主体责任。明确技术提供者与使用者应遵循的责任与义务,合理配置、区分生成式人工智能的应用场景,承担生成式人工智能中内容标识、透明度、个人隐私信息保护等义务,保护生成式人工智能的主客体合法权益。第二,要加强多主体监管。以政府监管部门或第三方机构为主体,融入社会力量进行联合监管,审查生成式人工智能开发生产的合规情况、虚拟用户协议的合法性以及技术处罚整改情况等,完善风险识别应对预案,通过备案评估等手段管控风险,建立生成式人工智能治理的行业标准。第三,要完善立法制度。从法律层面健全生成式人工智能治理的制度建设,完善生成式人工智能的专门性立法,探索技术服务、技术发展以及技术使用三方权利责任体系;强化部门间的协同监管,构建相应的风险管理体系,通过备案评估加以管控,建立智能信息披露机制。
在科技革命、产业变革的催化和叠加型数字鸿沟的阻滞下,生成式人工智能技术风险治理难度前所未有,在这种困境背后蕴藏的巨大机遇也将前所未有。正因如此,我们必须跳出固有的思维,在新的战略高度全面统筹发展和治理问题,发挥制度优势和要素优势,在“数治”领域的实践中赢得主动权和主导权,在“数智”时代的竞争中下好这步先手棋。

(来源:中国社会科学网)

分享网络安全知识 强化网络安全意识

欢迎关注《中国信息安全》杂志官方抖音号

《中国信息安全》杂志倾力推荐

“企业成长计划”

点击下图 了解详情


文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664220182&idx=4&sn=bd7ff7499362b2618acec1fda6ae0035&chksm=8b59c4efbc2e4df91aaa2a143e6ea514db405d183b683e9ed94db38aae6779aa8de665ba5593&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh