聚焦 | 2024外滩大会· 科技伦理见解论坛在沪举行
2024-9-6 19:37:59 Author: mp.weixin.qq.com(查看原文) 阅读量:4 收藏

 扫码订阅《中国信息安全》

邮发代号 2-786

征订热线:010-82341063

9月5日,2024外滩大会· 科技伦理见解论坛在沪举行,主题为“以善治促‘善智’,让AI更负责任”。
论坛上,工业和信息化部原副部长杨学山,中国工程院院士吴世忠,清华大学公共管理学院教授、人工智能国际治理研究院副院长梁正,联合国高级别人工智能咨询机构专家组专家、北京人工智能安全与治理实验室主任、中国科学院自动化研究所研究员曾毅,中国政法大学数据法治研究院教授、联合国高级别人工智能咨询机构专家组专家张凌寒等业界知名专家,来自微软、科大讯飞、蚂蚁集团、MiniMax、华为、腾讯等AI领军企业的高层负责人,以及北京协和医学院、复旦大学公共卫生学院等医学领域的资深专家,从多维度、多视角探讨交流了AI治理的最新趋势和理念,分享了AI大模型的最新实践进展与伦理思考,共同打造了一场高水平的产学研交流盛会。

本次论坛由信百会研究院、蚂蚁集团科技伦理委员会联合主办。

AI治理刻不容缓,专家探讨 AI 治理的机遇与挑战

工业和信息化部原副部长杨学山在致辞中表示,当前人工智能带来了巨大的发展潜力,也引发了诸多方面的风险和挑战。如何在促进人工智能技术快速发展和应用的同时,又确保其安全性、可靠性和可控性,显得尤为关键。从全球范围来看,美国、中国、欧盟等主要经济体正在探索人工智能治理的模式,制定了一批法律法规、政策制度、标准指南,用治理的主动权谋求发展的主导权、抢占人工智能国际竞争的战略制高点。中国作为负责任的人工智能大国,在国内逐步建立健全治理体系的同时,也主动为全球人工智能治理贡献“中国智慧”。他表示,期望通过政策界、产业界、学术界的沟通与联动,共同探索人工智能治理的有效路径。

中国工程院院士吴世忠围绕“AI治理的机遇与挑战——核控、疾控给我们的启示”进行了主题演讲。他认为,AI全球治理不仅会影响全球科技力量格局演变,而且会成为主导未来国际安全和稳定的重要变量。他在回顾全球核控和疾控治理历史经验基础上,指出面对复杂的战略性、颠覆性科技变革带来的挑战,实力与能力是参与全球AI治理的基础,共识与合作是参与全球AI治理的关键。他建议,要落实《全球人工智能治理倡议》,进一步细化人工智能国际治理的中国方案;统筹治理资源,积极对接人工智能国际治理前沿;兼顾“多边”“多方”,调动多行为体力量为治理议程赋能。

清华大学公共管理学院教授、人工智能国际治理研究院副院长梁正围绕 “发展视角下的人工智能治理:以善治促‘善智’”这一主题进行了演讲,他指出,人工智能发展是硬道理,治理要为发展服务。他认为,步调不一致、信息不对称、成本不对称、难以形成全球治理体系是当前人工智能治理的主要挑战。他建议,要把握发展与规制之间的平衡,坚持包容审慎的态度;构建敏捷协同的治理方案,确保技术发展与公共政策的良性互动;建立分层分级的治理框架,开发多维共治的治理工具;加强人工智能全球治理,构建开放、公正、有效的治理机制。

联合国高级别人工智能咨询机构专家组专家、北京人工智能安全与治理实验室主任、中国科学院自动化研究所曾毅研究员围绕“善治理促进善智能与善智慧——推进人工智能安全、向善的稳健发展”进行了主题演讲,他指出,安全与治理是人工智能核心能力,将加速人工智能稳健发展与应用。他认为,人工智能安全和人工智能能力不是正交,更不是相互掣肘的关系,提升安全等级并不意味着能力减弱,系统的鲁棒、自适应与安全也是人工智能的能力。人工智能系统风险防范要从被动式转变为主动式,从防御性转变为建设性。人工智能安全需要通过系统化的科学技术布局确保外部安全(Security)与内生安全(Safety)。同时他表示,人工智能伦理安全与治理不是选择题,而应是人工智能产学研用的基因。另外,人工智能需要从合乎伦理发展到具有道德。他认为人类需要用善智慧把人类自身带向追求本真的道路,人类一生在不断完善自我的道路上探索,永远不会被人工智能替代。

打造“负责任”的AI大模型,AI 大模型企业发展与治理的实践与挑战

微软(中国)有限公司首席技术官韦青围绕“智者畏因-论大模型的应用与责任”做了主题演讲,他表示,针对AI大模型的发展与治理,目前全球还缺乏共识,我们还不太清楚如何应对这个新的现象,应该从实证的角度去探索,不能过早下判断。他表示,从数据→信息→知识→智慧的维度来看,目前人工智能都还在知识层面,远没达到智慧层面。而人类的优势在于智慧层面,这是机器所无法超越的。面对AI所带来的挑战,人类首先应该守住人性,守住人的智慧,在此基础上一步步迭代我们的治理体系。

讯飞医疗研究院副院长赵景鹤在演讲中指出,医疗大模型的商业化面临数据隐私、知识产权和道德责任等挑战,会严重损害企业声誉并带来经济损失,增加了运营成本,这可能会阻碍大模型的商业发展。为了克服这些障碍,企业需要采取措施加强数据保护、获得必要的版权授权、确保模型的公正性和合规性,同时也需要提高透明度和公众教育。

MiniMax海外业务总经理盛静远围绕“内容平台3.0——大模型带来的to C应用创新及安全考量”进行了演讲,她指出AI大模型的安全伦理思考框架可参照“人机二相性”,将智能体以类人的视角从法律、道德、文化以及向善等方向进行引导,同时,AI作为硅基智能则可以参考信息隐私安全、网络安全、业务安全、数据污染等治理原则。她认为,关于模型安全和技术实际落地的系统性方案,需要关注训练模型的数据、跟人的对齐、持续的用户反馈、奖励机制设计以及模型外安全体系。

蚂蚁集团资深副总裁、科技伦理委员会联席主席周志峰围绕“蚂蚁 AI 大模型实践进展与伦理思考”发表主旨演讲,他指出 AI 伦理建设,既刻不容缓,也需要长期主义。他表示 AI 伦理建设需适应三大趋势:从“准确性”到“人情味”;从“显性风险被动防控”到“隐性风险主动防控”;从“对话交互”到“有效协同”,并介绍了蚂蚁针对这三大趋势的实践与思考。“AI 伦理是一个系统性、开放性课题,我们希望能和大家一起共同探索 AI 伦理的系统解决方案,始终保持AI的发展处于人类良善价值的轨道上。”周志峰表示。

跨界对话:如何应对AI大模型在严谨行业落地的伦理挑战

围绕“如何应对人工智能大模型在严谨行业落地的伦理挑战”这一主题,针对“大模型幻觉”“AI价值对齐”“数字鸿沟”等热点议题,北京协和医学院教授、生命伦理学研究中心执行主任、美国海斯廷研究中心外籍研究员翟晓梅,复旦大学公共卫生学院教授、国家卫健委卫生技术评估重点实验室(复旦大学)副主任薛迪,上海交通大学计算机系副教授吴梦玥,华为战略研究院AI治理产业发展首席专家柳嘉琪,腾讯研究院前沿科技研究中心主任王强等专家进行了深入的研讨。中国政法大学数据法治研究院教授联合国高级别人工智能咨询机构专家组专家张凌寒主持了本次圆桌论坛。

本次论坛由信百会成员,国家创新与发展战略研究会副会长,中国科学院大学经管学院教授吕本富主持。

分享网络安全知识 强化网络安全意识

欢迎关注《中国信息安全》杂志官方抖音号

《中国信息安全》杂志倾力推荐

“企业成长计划”

点击下图 了解详情


文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664224770&idx=3&sn=c8dcefcdbaeace870cdeffc501eecb2b&chksm=8b59dafbbc2e53ed881330b973c9aea8ea46f6f93b689c3a2cec1c018d72de574b5f0391f8f2&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh