【AI速读】欧盟人工智能法案:塑造未来AI治理的关键一步
2024-4-2 22:49:8 Author: mp.weixin.qq.com(查看原文) 阅读量:3 收藏

人工智能作为一种快速发展的技术,已经渗透到经济和社会的多个领域。然而,AI技术的发展也带来了一系列潜在的风险和挑战,包括对公共利益和基本权利的潜在损害。不同国家对AI的监管差异可能导致市场碎片化,减少法律确定性,阻碍AI技术的自由流通和创新。因此,需要一个统一的法律框架来确保AI技术的可信赖性和安全性,同时促进AI技术在内部市场的发展和应用。

2024 年 2 月 13 日,欧盟内部市场和公民自由委员会以 71 票对 8 票(7 票弃权)投票批准与成员国就《人工智能法案》进行谈判的结果。 27 个成员国一致认可《人工智能法案》。该法案源自于2021 年 4 月 21欧盟委员会发布一项监管欧盟人工智能的提案。

欧盟人工智能法案的目的是通过制定统一的法律框架,改善内部市场的运作,促进人类为中心和值得信赖的人工智能的发展,同时确保对健康、安全和基本权利的高水平保护。该法案旨在确保AI系统的自由流通,防止成员国对AI系统的开发、营销和使用施加限制,除非本法规明确授权。

四点总结

《人工智能法案》根据人工智能的风险对人工智能进行分类:

  • 禁止不可接受的风险(例如社交评分系统和操纵性人工智能)。

  • 大部分文本涉及受到监管的高风险人工智能系统。

  • 较小的部分负责处理风险有限的人工智能系统,但透明度义务较轻:开发人员和部署人员必须确保最终用户意识到他们正在与人工智能(聊天机器人和深度伪造)进行交互。

  • 最小的风险不受监管(包括目前在欧盟单一市场上提供的大多数人工智能应用程序,例如人工智能视频游戏和垃圾邮件过滤器——至少在 2021 年;这种情况正在随着生成人工智能而改变)。

大部分义务由高风险人工智能系统的提供商(开发商)承担。

  • 那些打算在欧盟投放高风险人工智能系统或投入使用的人,无论其总部位于欧盟还是第三国。

  • 还有在欧盟使用高风险人工智能系统输出的第三国提供商。

用户是以专业身份部署人工智能系统的自然人或法人,而不是受影响的最终用户。

  • 高风险人工智能系统的用户(部署者)有一些义务,但比提供者(开发者)少。

  • 这适用于位于欧盟的用户,以及在欧盟使用人工智能系统输出的第三国用户。

通用人工智能(GPAI):

  • 所有 GPAI 模型提供商必须提供技术文档、使用说明、遵守版权指令,并发布有关培训所用内容的摘要。

  • 免费和开放许可的GPAI模型提供商只需遵守版权并发布训练数据摘要,除非它们存在系统性风险。

  • 所有存在系统性风险(开放式或封闭式)的 GPAI 模型提供商还必须进行模型评估、对抗性测试、跟踪和报告严重事件并确保网络安全保护。

禁止的人工智能系统

根据《人工智能法》,以下类型的人工智能系统是“禁止的”。

人工智能系统:

  • 使用潜意识、操纵或欺骗手段来扭曲行为并损害明智的决策,从而造成重大伤害。

  • 利用与年龄、残疾或社会经济环境相关的脆弱性来扭曲行为,造成重大伤害。

  • 生物识别分类系统推断敏感属性(种族、政治观点、工会会员资格、宗教或哲学信仰、性生活或性取向),但合法获取的生物识别数据集的标签或过滤或执法部门对生物识别数据进行分类时除外。

  • 社会评分,即根据社会行为或个人特征对个人或群体进行评估或分类,从而对这些人造成有害或不利的待遇。

  • 仅根据分析或人格特征来评估个人实施刑事犯罪的风险,除非用于增强基于与犯罪活动直接相关的客观、可验证事实的人类评估。

  • 通过从互联网或闭路电视录像中无目的地抓取面部图像来编译面部识别数据库。

  • 推断工作场所或教育机构中的情绪,除非出于医疗或安全原因。

  • 在执法的公共可访问空间中进行“实时”远程生物特征识别 (RBI),但以下情况除外:

    • 寻找失踪人员、绑架受害者以及遭受人口贩运或性剥削的人;

    • 防止重大和迫在眉睫的生命威胁或可预见的恐怖袭击;

    • 识别严重犯罪(例如谋杀、强奸、武装抢劫、麻醉品和非法武器贩运、有组织犯罪和环境犯罪等)的嫌疑人。

远程生物识别注意事项:

仅当不使用该工具会造成相当大的伤害并且必须考虑到受影响人员的权利和自由时,才允许使用支持人工智能的实时 RBI 。

在部署之前,警察必须完成基本权利影响评估,并将该系统在欧盟数据库中注册,但在有正当理由的紧急情况下,可以在不注册的情况下开始部署,前提是稍后注册,不得无故拖延。

在部署之前,它们还必须获得司法当局或独立行政当局的授权,但在有正当理由的紧急情况下,可以在没有授权的情况下开始部署,前提是在 24 小时内请求授权。如果授权被拒绝,部署必须立即停止,并删除所有数据、结果和输出。

AI系统的定义与禁止实践

人工智能法案对AI系统进行了明确定义,强调了AI系统不应包括基于自然人定义的规则自动执行操作的简单传统软件系统或编程方法。同时,委员会被赋予了制定AI系统定义应用指南的任务。

法案中列出了一系列禁止的AI实践,包括执法机关在公共场所实时使用生物识别技术的禁令,但也规定了一些明确且受限的例外情况。此外,法案还禁止了未针对特定目的的面部图像抓取、工作场所和教育机构的情感识别(除了安全和医疗原因的例外)、基于特定信仰或特征的生物特征分类,以及个体预测性警务的有限禁令。

高风险AI系统的分类与监管

法案将一些生物特征分类系统和情感识别系统,以及远程生物识别系统,添加到了高风险AI系统的附录III中,并对其范围进行了进一步限制。对于执法机关使用的远程生物识别,法案在第29条中增加了额外的保障措施,包括透明度措施和请求使用远程生物识别的授权要求。

执法机关的例外情况

法案保留了对执法机关的所有例外情况,包括免除合规性评估的豁免权和在没有事先授权的情况下开始高风险AI系统的实际测试的可能性。然而,为了确保这些让步,理事会不得不同意将数据保护机构或其他根据执法指令第1至44条设定的条件指定的机构作为执法领域高风险AI系统的市场监管机构。

一般用途AI模型的新规定与治理结构

法案中新增了关于一般用途AI模型(GPAI模型)的规定,这些规定引入了针对所有GPAI模型的横向义务,包括保持技术文档的最新状态并在请求时提供给AI办公室和国家主管当局。此外,对于具有系统风险的模型,还有额外的要求,如进行模型评估、风险评估和风险缓解措施、确保足够的网络安全保护,并向AI办公室和国家主管当局报告严重事件。

法案还为GPAI模型建立了新的治理结构,包括成立AI办公室作为新的治理结构,并与科学界建立紧密联系以支持其工作。此外,还提出了增强AI委员会角色的新规定,扩大了其任务清单,赋予成员国更强的协调作用。

结论

欧盟人工智能法案是塑造未来AI治理的关键一步。通过定义AI系统、列出禁止的AI实践、规定高风险AI系统的分类和监管措施,以及为执法机关提供的例外情况,法案旨在确保AI技术的可信赖性和安全性,同时促进AI技术在内部市场的发展和应用。法案中对一般用途AI模型的新规定和治理结构的建立,进一步强化了对AI技术的监管。随着法案的最终确定和实施,欧盟将在全球AI治理中发挥领导作用,为其他国家和地区提供宝贵的经验和参考。

法案原文及机器翻译已上传知识星球
长按识别下面的二维码可加入星球
里面已有万余篇资料可供下载
越早加入越便宜
续费五折优惠


文章来源: https://mp.weixin.qq.com/s?__biz=MzI2MTE0NTE3Mw==&mid=2651142948&idx=1&sn=cc63b7d9c9c27b3c9fa08b8c08d61501&chksm=f1af4c1ec6d8c50829956774e49dd2a08e16f4a71bdba7a885c49b48c72b4217893bb6400c5c&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh