来源:中国人工智能产业发展联盟
2023年是全球人工智能治理的关键一年,主要经济体在政策立法方面取得重大进展,共识与分歧并存。总体来看,全球人工智能治理体现出三大重要趋势:一是通用人工智能(AGI)成为人工智能治理的焦点问题。通用人工智能、基础模型、前沿人工智能等概念相继出现在英国AI峰会、美国《关于安全、可靠和值得信赖的人工智能的相关行政令》、欧盟《人工智能法案》等重要国际合作或国内立法政策中,是否监管、谁来监管、如何监管成为各方争议焦点。二是风险关注点从传统隐私、歧视向更基础的安全问题扩展。一方面,生物识别、ChatGPT引发的隐私泄露、偏见歧视等问题面临新的监管挑战,如公共场所使用生物识别用于执法目的、人机交互数据的使用等;另一方面,伴随AGI应用于千行百业,开源模型广泛滥用风险突出,全球对AGI应用于生物、化学、核能、关键基础设施等领域的不可控风险关注度显著提升,也成为主要经济体达成《布莱切利宣言》的重要原因。三是透明度成为各国立法中率先突破的制度工具。例如欧盟《人工智能法案》规定了披露训练目的、训练数据、重大事故报告、能耗、版权信息等多重透明度义务,美国《行政令》要求训练算力超过1026的大模型向政府披露红队测试结果和相关信息。技术工具方面,水印标识也成为白宫自愿承诺、各国实现互操作性的重点问题,有利于实现用户知情和源头追溯。为更好把握2023年全球AI治理焦点问题和关键举措,我们回顾总结了2023年全球人工智能政策立法的十大重要进展,供各方参考。
NIST《人工智能风险管理框架1.0》(美国,2023年1月)
2023年1月26日,美国国家标准与技术研究院(NIST)正式发布《人工智能风险管理框架》(Artificial Intelligence Risk Management Framework,AI RMF 1.0)及配套使用手册(AI RMF Playbook)。该框架以风险为管理对象,以可信为管理目标,旨在指导机构组织在开发和部署人工智能系统时更好地管理人工智能风险,避免产生偏见和其他负面后果,提升人工智能系统的可信度,保护公民的公平自由权利。其中,该框架指出,可信人工智能系统应具有以下七大特征,即有效且可靠(valid and reliable)、安全(safe)、稳定又弹性(secure and resilient)、负责且透明(accountable and transparent)、可理解与可解释(explainable and interpretable)、隐私增强(privacy-enhance)以及有害偏见控制下的公平(fair with harmful bias managed)。NIST作为美国商务部的非监管机构,其发布的框架在性质上是不具有法律约束力的指导性文件,供设计、开发、部署、使用人工智能系统的个人与机构组织自愿使用。尽管该框架只是非强制性的建议性框架,但在框架发布之际,美国的安全与新兴技术中心(Center for Security and Emerging Technology,CSET)、华盛顿智库两党政策中心(Bipartisan Policy Center)、汽车创新联盟(Alliance for Automotive Innovation)、亚马逊云技术平台等组织均发布声明,承诺使用或推广该框架,其影响力可见一斑。NIST未来计划与人工智能业界合作,定期收集意见并更新该框架。

《人工智能与数据法案》及其"配套文件"(加拿大,2023年3月)
作为最早发布人工智能国家战略的国家,加拿大政府于2023年3月宣布将制定最快会在2025年生效的《人工智能与数据法案》(Artificial Intelligence and Data Act,AIDA),并发布预告性配套文件,以规范人工智能开发和应用活动。
预告文件揭示了AIDA的制定背景、时间安排、基本框架与创新要点。根据预告文件所述,为了兼顾科技创新发展和安全,加拿大将沿用欧盟以风险为导向的人工智能监管路径,将监管重点放在高影响力(即高风险)人工智能系统上,主要包括影响服务获取或就业的筛查系统、用于识别和推断的生物识别系统、会大规模影响人类行为的系统、对健康和安全至关重要的系统四类系统。在监管要求上,AIDA希望通过对人工智能系统生命周期的每个阶段所需的内容设定明确的期望来完善其合规性,因此要求高影响力人工智能系统投入使用前,采取适当措施来识别、评估和减轻有害或偏见输出的风险,并严格遵循人工监督和监控(Human Oversight & Monitoring)、透明(Transparency)、公正平等(Fairness and Equity)、安全(Safety)、可归责(Accountability)、有效且稳健(Validity & Robustness)等与国际规范保持一致的基本原则。此外,AIDA提供了行政罚款、行政诉讼和刑事处罚等手段,提升个体和集体损失的可预防性和可救济性;AIDA还将在刑法中新增三类与人工智能系统相关的犯罪行为,以预防和救济不当使用高影响力人工智能系统可能造成的社会危害。
《促进创新的人工智能监管框架》白皮书(英国,2023年3月)为最大程度发挥人工智能带来的社会效益,鼓励人工智能在值得信赖的前提下不断创新发展,英国科学、创新与技术部(DSIT)于2023年3月发布了首份人工智能白皮书——《促进创新人工智能监管框架》(A pro-innovation approach to AI regulation),提出了具有支持创新、负担相称、值得信赖、适应性强、规则明确、跨部门协作六大特征的监管框架,旨在通过为行业提供具有确定性、一致性的监管方法,提高公众对人工智能使用的信任度,推动经济增长和繁荣,巩固英国在人工智能领域的全球领导地位。
在白皮书中,英国提出了人工智能在各部门的开发和使用中都应遵守的五项原则,日后将由各监管部门根据具体情况在该五项原则的基础上对各领域的最佳实践发布指南。白皮书还指出,为鼓励人工智能的创新,并确保能够对日后产生的各项挑战作出及时回应,将不会在当前就对人工智能行业进行严格立法规制。此外,白皮书特别强调政府和行业、企业等多主体开展协同治理的重要性,以及加强人工智能治理全球合作和互操作性的重要性,以尽快实现英国在人工智能领域的全球领导者地位。
巴西提出《人工智能法案》(巴西,2023年5月)
巴西联邦参议院主席帕切科于2023年5月提出了一项针对人工智能的管理法案框架(Brazilian AI Bill nº 2.338/2023)。该提案已经在专家委员会中反复磨合讨论了9个月,目前已经提交至联邦参议院进行分析,若获得批准,可能使巴西成为世界上首批规范人工智能使用的国家之一。该法案提出了人权导向、基于风险、分级分类的规制方案,主要分为三个部分:(1)受人工智能影响者的原则及权利;(2)人工智能风险分类;(3)关于人工智能使用的监管方式以及责任追溯。该法案要求,确保关于高风险人工智能系统的人类监管并非形式主义的,在开发、生产和定约高风险人工智能系统时采取特殊的公共行政治理措施,在部署高风险人工智能系统前详尽阐述算法影响测试结果。此外,法案还提出成立专门的监管机构来统一管理并监督法案的实施。
《生成式人工智能服务管理暂行办法》(中国,2023年8月)
2023年7月13日,国家互联网信息办公室会同国家发展和改革委员会、教育部、科学技术部、工业和信息化部、公安部、国家广播电视总局发布了《生成式人工智能服务管理暂行办法》(“《办法》”),并于2023年8月15日正式生效实施。《办法》旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。在适用范围上,《办法》强调其规制对象为“向境内公众”提供生成式人工智能服务,将未向境内公众提供服务的生成式人工智能技术的研发、应用排除出适用范围,减轻了模型研发阶段与企业内部应用的合规负担。在监管路径上,《办法》提出了对生成式人工智能服务试行“包容审慎和分级分类”的监管思路,强调应当统筹协调多部门作为监管机关依职权加强管理。此外,在美国对华技术“脱钩”、“卡脖子”,中国企业获取先进芯片、算力存在诸多障碍的大背景下,《办法》针对业界在研发、应用生成式人工智能中面临的实际问题,提出了一系列利好创新的政策鼓励措施。总体上,《办法》体现出包容审慎的监管态度,在保障安全的基础上鼓励创新,基于对当前生成式人工智能技术局限的充分考虑,适度放松了生成式人工智能从研发、模型训练到应用、优化各阶段的合规要求,在原理和制度层面统筹兼顾了发展与安全,不仅为生成式人工智能产业的发展释放积极信号,也将对推进生成式人工智能产业有序发展、防范社会风险发挥重要作用。