人工智能之国际法规制的必要性与可行性三、人工智能之国际法规制的现状四、数字经济背景下人工智能对国际法的挑战五、以国际法规制为核心的人工智能治理全球合作路径六、人工智能国际法规制的中国因应和参与。
人工智能是数字经济的核心,其在商业和其他场景的广泛运用给国际法带来了一系列挑战,而人工智能在技术上的治理需求和主权国家治理的有效性意味着国际法规制是人工智能治理必要和可行的途径。当前,人工智能的国际法规制总体不成熟,尚处于初级阶段,在形式和内容上分别以国际软法和间接规制为主。数字经济背景下人工智能对国际法的挑战体现了国际法原有规则的滞后性和国际法规制作为一种国际治理方式的局限性。相应地,以国际法规制为核心的人工智能治理全球合作路径应当包括国际法自身的更新及其与其他国际治理方式的协调。对我国而言,在国内层面完善人工智能规制体系的同时,应当鼓励和支持多元主体参与各层面的人工智能国际治理。
一、引 言
数字经济是以数据要素为基础的新兴经济形态,人工智能是数字经济的核心。联合国贸易和发展会议(United Nations Conference on Trade and Development,UNCTAD)发布的《2021年数字经济报告》指出,数字数据(digital data)的指数增长构成了包括人工智能在内的新兴数字技术的核心,并已成为一种基本的经济资源。在数字经济的三范围模型(three-scope model)中,信息技术/信息与通讯技术(IT/ICT)部门是数字经济的核心,与数字服务和平台经济共同构成了数字经济,而电子商务、精准农业和算法经济等则属于更广义上的数字化经济。本文讨论的数字经济实质上是广义的“数字驱动的经济”。一方面,数字经济以数据作为一种经济资源,数字数据被加工利用而产生经济效益;同时通过对数据的处理生成产品,不仅利用数据亦创造数据作为新的价值。另一方面,数字经济处于全球语境之中,这是由其利益相关方的多元性和覆盖范围的广泛性决定的,尤其和跨国互联网巨头业务的全球覆盖有关,正是数据的跨境流动使得这种全球语境成为现实可能。
人工智能是数字经济的核心,作为一种计算统计技术有能力从海量数据中找出隐藏的模式和规律,根据现存数据创造更多的数据信息知识,而更广泛的信息又可反作用于人工智能的研发与训练。相应的结果是,从来没有一个单一部门能像数字技术这样对整个世界拥有如此大的权力,可以针对的不仅仅是个人,而是全部人口,监控当前和预测未来的行为。数字经济的领跑者正是通过控制数据和人工智能技术来获取经济和战略优势的。例如,国际主流的AI框架由Google、Meta等科技巨头主导,形成了以Google-Tensor Flow和Meta-PyTorch为代表的双寡头格局。这类巨头通过其服务平台而掌握的全世界用户的数据将加固其领先地位。
人工智能的大规模涌现给国际法带来至少两个新议题:“人工智能中的国际法”与“国际法中的人工智能”,二者均已引发国际法和其他国际规则方面的讨论。前者关注人工智能如何影响国际法的运行,后者则讨论国际法如何适应人工智能运用愈发广泛的现实,或者说国际法如何被用以治理人工智能。有关“人工智能中的国际法”之讨论,如利用人工智能的有效算法在国际商事仲裁中协助任命仲裁员、一定程度上预测裁决结果等,尽管这种技术性作用由于仲裁本质上是由人类仲裁员赋予合的社会性和政治性过程而显得十分有限。而对于“国际法中的人工智能”,当前针对国际法下的人工智能治理之讨论主要集中于对人工智能武器的规制。这些武器在21世纪初期的武装冲突中已有使用,而今在俄乌冲突中亦体现于双方对于面部识别技术和无人机的应用。有关以无人机等“致命自主武器”为代表的人工智能应用在国际法中执法、平时法与战时法各个领域中的合法性与归责方式均有讨论,其中,国际人道法面临的挑战最为显著。具体而言,从人工智能自动化武器的合法性角度,主要观点认为:其一,人工智能武器所使用算法的局限,使其在战争中能否遵循区分原则和比例原则这类难以量化的决定受到严重怀疑。其二,人工智能武器可能动摇人类主体可归责性这一现代人道法的核心,责任缺口的存在可能使得此类武器系统免于谴责和追责。从国际法对人工智能武器规制的角度,现有国际人道法的一般原则不足以规范这类破坏性军事技术,国际规范应当把人的生命价值放在首位并强调决策过程中的人类因素。各国应当推动起草和制定有关人工智能武器的国际条约,对致命性自主武器和非致命性自主武器应分别明确加以禁止和限制。此外,当前有关人工智能对其他国际法特定领域的讨论亦逐渐涌现,如国际海洋法和海商法领域,但对于人工智能有关的一般性国际法问题以及国际经贸领域具体规制的讨论相对不足,且并未注重数字经济背景下数据治理在人工智能治理中作为前置性问题出现这一事实。事实上,人工智能在国际经济法中面临的规制空缺同样深刻,有国外研究指出:对外国人工智能供应商的区别对待是否有违各国在国际贸易中的承诺?用以训练人工智能的数据库是否将被视为外国投资?人工智能的作品是否会在国际知识产权法中受到全球统一的保护?投资人工智能或利用其进行投资又需要怎样的国际金融规则?这些都是国际经济法需要追问和解决的问题,并有研究就人工智能对WTO法的影响、作为数据治理的人工智能治理,及国际经济法的有限性等议题作出初步回应。同时,国内文献在这些领域尚未提出明确问题或试图给出回复。本文主要以数字经济为背景,考察当前人工智能国际法规制的现状、讨论人工智能对于当前国际法的核心挑战,并提出国际合作与我国参与的应对思路。
二、人工智能之国际法规制的必要性与可行性
人工智能之国际法规制的必要性
在分析对人工智能治理方式时,有学者选择采用“政策(policy)”一词,并给出两方面原因:一是其他治理思路的缺陷,如单纯的伦理规范具有概念易变、缺乏强制力等局限性;二是“政策”治理思路的优势,如蕴含制定新法的空间、强调立法过程中的公共利益考量等。概言之,作者的讨论不限于具有约束力的法律规则,但也认可法律的可能性和终局性。事实上,在现实中,国际法对于信息空间的规制一直在跟进。例如,联合国2013年发布的《从国际安全的角度来看信息和电信领域发展的政府专家组的报告》明确指出,现行国际法尤其是《联合国宪章》适用于各国使用通信技术。
国际法对人工智能进行治理的必要性首先在于这一技术本身的工具性,这意味着其应用必然是多领域和全球范围内的,而只有国际准则可以提供统一指引,国际层面的行业规则和软法的灵活特点则可以发挥先导或补充作用。其次,人工智能技术的多层次性,已经在数据层、算法层和应用层分别对现有有约束力的国际法规则造成冲击。例如,仅是在商业领域的广泛应用就足以放大人工智能的影响,将其全方位地投射到现有国际经贸规则上。故而,在国内法与道德准则发展的同时,人工智能对现有国际法的冲击无法被忽视,需要对有约束力的国际规则有所塑造。数字经济治理的新问题亦是如何治理人工智能创造与发展数字经济的过程,人工智能由于与数字资源的必然联系无法脱离数字经济的总体治理框架。
人工智能之国际法规制的可行性
2022年1月,Meta宣布已经设计并建造了AI Research Super Cluster—当今运行速度最快的AI超级计算机之一。2022年2月,Google的Deep Mind宣布通过教授一种强化学习算法训练了一个人工智能来控制核聚变。自2018年首次公布自己的人工智能原则之后,Google每年更新其人工智能原则,包括就人工智能的标准与政策的全球对话总结成果并提出建议。有学者警告,由于创新的速度已经超过了监管过程的惯性,政府在监管竞赛中正在输给技术专家、数据科学家和机器算法。在科技巨头企业极力推动人工智能的研发与广泛商业运用并试图主导行业规则的今天,为什么我们仍相信国际法在人工智能治理中的核心与根本作用?这是因为,人工智能可治理性的根本来源在于主权国家治理的有效性。一方面,人工智能本身可用于辅助政府公权力行使。人工智能不仅已经让使用自然语言进行准确和快速的法律研究成为可能,其预测封闭系统中行为的价值亦可被行政机构合法用以确保发布政策和指导监管的一致性。不仅如此,人工智能还可能成为国际政治角力的工具。在2022年的俄乌冲突中,乌克兰国家安全局声称已关闭了一个在社交媒体上散布恐慌和炸弹威胁的俄罗斯社交机器人农场。另一方面,尽管大型私人公司具有丰厚的人工智能技术和社会资源,它们仍根本受制于政府管控。哈佛大学国际关系教授StephenWalt认为“科技巨头不会重塑全球秩序”:数字空间比起必不可少的地缘政治的物理空间只是可选项,科技巨头无法拥有类似主权的权力或忠诚度,它们在数字世界中的地位会随着主权在数字世界中行使权力的扩散而削弱。
三、人工智能之国际法规制的现状
人工智能之国际法规制总体不成熟
当前,人工智能之国际法规制并不成熟。其一,从人工智能之国际治理的不同规制方式来看,目前的人工智能国际治理体系仍以伦理规则为主。在人工智能国际法规则确立之前,伦理准则和共同价值标准可以尽量确保价值导向强烈的技术运行之准确性和客观性。全世界在政府层面达成的最广泛的人工智能共识—联合国教科文组织大会于2021年11月通过的《人工智能伦理问题建议书》即是一伦理共识。其二,从人工智能法律规则体系内部的不同层级来看,部分国家或地区的域内法及其他治理规则发展迅速。其中,欧盟作为一个特殊主体,其人工智能规则同时包含以人工智能为专题的立法与战略政策及以数据为规制对象的配套规则,亦提供了一种区域国际法的典范。不过,欧盟法中的人工智能规则的目的更多是促进欧盟作为市场平台对于投资者的吸引力,对于更广泛国际范围内的人工智能规制作用有限。
尽管现有国际法中尚不存在以人工智能为规制对象的多边国际条约,但有关的双边条约与共识渐次出现。2020年10月,印度外交部表示,印度与日本已确定一项协议,将促进关键信息基础设施、5G技术、物联网、人工智能和网络空间等关键领域在能力建设、研发、安全和弹性方面的合作;两国外长还宣布日本同意成为由印度提出的印度-太平洋倡议的主要合作伙伴。2020年8月,新加坡与澳大利亚签署《双边数字经济协议》(SADEA),同时还签署了一系列谅解备忘录,其中就包括专门旨在发展和鼓励人工智能最佳实践以及伦理治理框架共享的谅解备忘录。此外,学界也已出现就人工智能治理的最高约束力与广泛性的国际规则形式−国际条约−的设想,如Andrey Neznamov和Victor Naumov提出了《为机器人和人工智能的创建和使用的机器人和人工智能规则示范公约》,就发展人工智能过程中研发者应秉持的负责态度、合作发展统一国际规则和建立跨国组织等努力作出指导。
人工智能之国际法规制的具体特征
当前国际法中的人工智能规制主要依托国际软法,具体包括两种主要形式。第一种是由传统国际法主体参与制定的、不具有约束力的国际规则。2019年5月经济合作与发展组织(OECD)理事会通过的《人工智能建议书》是第一个政府间的人工智能标准,为负责任地管理可信赖的人工智能确定了五项原则:包容性增长、可持续发展和福祉;以人为本的价值观和公平;透明度和可解释性;稳健性、安全性和安全性;问责制。2019年6月,G20部长级会议表决通过《G20贸易和数字经济部长声明》,其中附件部分提出了“G20人工智能原则”,强调发展以人为本的人工智能,并明确该原则不具有约束力。第二种是以欧盟法为代表的区域性国际法。其中,有些是直接规则,比如《关于人工智能的统一规则并修正某些联合立法行为》的提案,提出了人工智能应用场景风险分级评定制度,以附件形式列举出了属于人工智能范围内的技术清单,以提供必要的法律确定性。有些是间接规则,比如《通用数据保护条例》(General Data Protection Regulation,GDPR),规定了个人数据自由流动的原则,引入了被遗忘权和数据可携带权,从个人对数据的自决权出发建构个人数据权利体系。
国际法中的人工智能规制规则并非都体现在直接规制规则上,尽管当前直接规制人工智能的有约束力的国际法规则相对缺失,但间接规制人工智能的国际法规则并不稀缺,其中典型的是以数据治理规则为代表的数字经济规则。
国际法层面的数字经济规则主要有两种形式:一是纳入自由贸易协定中的数字贸易协议内容,如《全面与进步跨太平洋伙伴关系协定》(CPTPP)中的第14章“电子商务”;二是专门的数字贸易协定,如东盟各国于2018年11月签署的《东盟电子商务协定》等。此外,最重要的多边贸易体制WTO框架下的电子商务谈判于2019年启动,目前仍在进行中,各成员在跨境数据流动、数据本地化、源代码保护、电子传输免关税永久化等方面分歧较大。在2022年6月举办的第十二届部长级会议上,各方表示重振《电子商务工作计划》相关工作,并同意将电子传输临时免征关税延续到下一届部长级会议。在经贸协定和其他与数字经济有关的协定中出现了两处有代表性的关于人工智能的共识:其一是《数字经济伙伴关系协定》(Digital Economy Partnership Agreement,DEPA)第8.2条“人工智能”,其二是SADEA第31条“人工智能”。二者的结构与内容颇为相似:首先,重申了人工智能在数字经济中日益广泛的作用;其次,指出有助于实现人工智能的益处的伦理治理框架对于可信、安全和负责任地使用人工智能技术的重要性,并强调“鉴于数字经济的跨境性质,双方进一步认可确保此类框架尽可能与国际接轨的好处”;最后,强调成员方的人工智能的合作和对国际共识的考量。以DEPA第8.2条为例,其重要性在于,此前国际贸易协定从未涉及与人工智能这类支撑数字经济之具体技术相关的问题。不过,由于本条是以相当软化的语言表达的,它并不能被视为对开发人工智能治理框架的约束性承诺,而是更接近一种宣示工具。
四、数字经济背景下人工智能对国际法的挑战
人工智能对于当前国际法的挑战有两个层面。从国际法内部来看,直接规制人工智能的有约束力的国际规则缺位,反映出国际法体系在对人工智能规制上的滞后性,故人工智能带来的一大挑战是国际法体系如何规制新兴的人工智能。从国际法外部来看,国际法对人工智能的规制作为国际治理的方式之一亦有局限性,故另一大挑战是国际法体系如何与其他国际治理方式接轨。
内部挑战:国际法原有规则本身的滞后性
人工智能对于以主权为基础的国际法体系是全新的规制对象,后者在规制过程中体现出明显的滞后性,国际法中的国际经贸规则是一个典例。
排他性主权与统一数字空间之间存在张力。如果说不均衡的人工智能发展水平是致使人工智能国际规则缺位的现实原因,那么人工智能技术背后数据的天然流动性特征同主权治理的排他性特征间的冲突,则决定了人工智能国际治理困境的根本悖论—有学者称之为数据隐私的“巴尔干化/割据(balkanization)”现象。不平衡的人工智能发展加剧了数字割据,而数字鸿沟的扩大又加剧了人工智能水平的差异,这和数字经济运行在开源基础上的本质要求是相悖的。正如UNCTAD在2021年《数字经济报告》所指出的,目前世界范围内的技术竞争,尤其是人工智能技术的竞争,可能会导致数字空间的碎片化,出现一种各自为政的数字经济。数据巴尔干割据现象显然与互联网的开放属性和去中心化特征之间存在张力,这使得人工智能的统一国际法规则难以实现。
在这一背景下,甚至有学者警示数字殖民主义(digitalcolonialism)的来临:信息通信技术、人工智能创新以及在新兴市场快速部署系统和基础设施的能力都集中在少数几个国家,尤其是中国和美国;而技术相对落后国家很容易由于教育和科研水平的鸿沟陷入技术依赖和发展困顿。我国在这一讨论中也成为被抨击对象,无中生有的观点认为中国正通过技术施加经济和政治压力,从而对非洲国家施行数字新殖民主义,其中的主要途径即在整个非洲部署人工智能技术和数据挖掘技术。
以国际经贸规则为例,国际经贸规则规制着全球价值流动的全过程,其本身是多环节与综合性的;又因为人工智能本身也是多层次的,这使得国际经贸规则成为人工智能规制面临问题的显著领域之一。人工智能在应用层、数据层和算法层均面临着在国际经贸规则中定位或规制路径不明的问题。
(1)人工智能在其应用层的产品属性不明。人工智能在应用层的主要体现为人工智能产品,而就人工智能产品是货物还是服务这一问题,现有国际贸易规则并没有予以明确。CPTPP在数字产品的定义条款中就通过注释直接回避了数字产品贸易归属于服务贸易还是货物贸易的争论。而且,不仅是广义的数字产品面临这一困境,即使相对成熟领域的产品定位亦如此,其中一个重要原因是人工智能技术服务与产品通常聚合为一体而打包流通。以自动驾驶系统(Automated Driving Systems,ADSs)为例,它是人工智能应用相对成熟的领域之一,但供应链上的各个国家尚无法就这种货物和服务的集成体究竟属于二者中哪一类达成共识,而这将决定WTO法律体系中仅适用于货物贸易的《技术性贸易壁垒协议》能否适用。此外,即使人工智能产品受到规则保护与规制,其所基于的数据并不一定能享有类似待遇。例如,在数据被用以训练服务产品的情况下,仅有产品受保护而数据不受保护。只有当数据本身是终端服务产品且成员在减让表中具体承诺的时候,《服务贸易总协定》规则方可适用。
(2)人工智能在其数据层的数据法律性质不明。数据可否作为一种投资在国际投资法上并不清晰,是人工智能在其数据层面临的问题。其一,用以训练人工智能的数据是人工智能在数据层的核心要素,但能否对将数据投入人工智能训练的过程按照投资加以处理存在疑问。尽管大多数双边条约在定义“投资”时都采用例如“所有资产”的术语,且就投资定义存在当事人的意思自治空间,但数据的投入能否作为适格投资仍可能面临与单次商业交易的区分问题,这一区分的重要性在于不同语境决定了数据流动的不同待遇。其二,数据流动规则由于需要在传统投资实体待遇的框架下适用,可能受制于后者而遭克减。这一问题在规则上是由自由贸易协定中的电子商务与投资章节二分造成的。例如,CPTPP仅将跨境数据流动约束力条款纳入电子商务章节中,而未纳入投资章节中;而根据投资章节的第9.19条,投资者提出仲裁请求只能是基于东道国对该章A节下的义务、一项投资授权或一项投资协议这三类对象的违反。因此,投资者无法直接就投资过程中所遭受的数据流动限制向东道国主张权利。不过,由于电子商务章节的第14.2.5条亦规定了对第9章的合规要求,投资者可以对数据流动的限制构成对投资义务的违反为由向东道国主张权利。
(3)人工智能在其算法层:源代码的规制路径不明。人工智能之算法如何受到保护并适度开放,是人工智能在算法层面临的问题。人工智能算法的源代码开放本质是一个透明度问题,这种透明度在浅层上意味着人工智能在同人类的交互中对自身身份的披露,在深层次上则意味着源代码的开放。目前,诸多经贸协定章节对数字产品源代码规制是谨慎限制源代码的披露情形,将其限缩于商业合同约定或当事国监管要求两类情况。如,CPTPP第14章电子商务之第14.17条“源代码”、《美墨加贸易协定》(USMCA)第19章数字贸易之第19.16条“源代码”和《美日数字贸易协定》直接涉及对源代码的强制技术转让之禁止,同时亦保留披露算法的空间。这一做法的问题在于,经贸协定中的源代码规则仅涉及单一的源代码披露,而未区分对于不同类型人工智能的不同监管方式:根据“是否以获得人工智能的解释为监管标准”,存在两类对于算法的监管模式,一是审计源代码的“白盒”方法,二是仅通过接口审计人工智能系统输入和输出的“黑盒”方法。当前的经贸规则中并没有区分两种模式,仅有的严格的源代码披露规制可能反而使得更需监管的黑盒人工智能不受有效约束。不过,即使不采取强行代码公开的法律要求,而是采取表面较为宽松的可解释性合规要求,代码的技术负责人也很难为外行提供自动化应用决策方式的准确解释,而这种信息与技术的双重优势地位很可能带来监管套利的空间。
外部挑战:国际法规制作为一种国际治理方式的局限性
国际法的两种主要造法方式和法律渊源是国际条约和国际习惯,这决定了国际法规则达成所需时间较长,尤其在对人工智能等新兴产业规制上的空缺明显。一般来说,国际软法是特定领域国际法规范不足的有效补充,如国际环境法领域中的1972年斯德哥尔摩《人类环境宣言》和1992年里约《环境与发展宣言》两个软法文件已成为国际环境法框架形成的两个里程碑。不过,目前国际软法在人工智能规制上亦处于初步阶段,这体现为相关国际软法不仅数量少,而且总体上并没有提出新概念和新规则,也没有提出规制路线图,大部分是对伦理规则的整合重述,这方面的国际法规则明显滞后。
首先,国际法规则的制定参与主体主要是国家,但在人工智能领域,行业巨头尽管在行业内具有充分的规范引领动机和资源以及相当的话语权,但其在国际法形成过程中的话语权与其行业地位并不匹配。其次,各国由于人工智能发展水平各异而利益诉求各不相同,在企图引导规范制定的人工智能领先国家的对立面,是陷于数字殖民主义之虞的发展中国家。有学者警示,由于具有更强技术实力和更大数据掌控规模的国家很可能在人工智能时代占据主导权,一种新的南北隔阂或将由此产生。“全球线下人口是科技帝国的争议领土,因为谁让他们陷入数字封建主义,谁就能掌握未来的钥匙。”
五、以国际法规制为核心的人工智能治理全球合作路径
国际法对人工智能的规制面临上述内外两方面的挑战。为了应对内部挑战,国际法自身需要更新。为了应对外部挑战,国家亦应注重在发展初期运用国际法规制之外的方式协调治理。
国际法自身的更新
国际法在人工智能规制中显现的滞后性并不意味着国际法体系不具有更新的能力,人工智能之全球治理仍需以国际法为中心。
主权作为国际法的基础概念一直处于演变之中,互联网时代催生出诸多主权的衍生概念,这是国际法对于网络空间规制的初步回应,如早在20世纪末就已出现“网络空间主权”概念。近年来,有文献讨论了作为传统威斯特伐利亚主权概念续集的“信息主权”概念,认为这是“国家对信息保护、管理和共享的权力”,与传统主权概念类似,亦包括对内和对外两个维度。有研究进一步将网络主权分层解构为物理层、逻辑层、内容层三个层面的主权。随着数据获取方式的变革,数据在信息形成中的重要性不断提升,数据主权也更多作为一个新概念被独立提及,它为应对通讯与网络技术发展而产生,更体现出数据及其云计算、物联网等技术对传统信息通讯工具的变革。学界对于数据主权的定义大抵强调主权国家对于数据的控制,即根据所在民族国家的法律、惯例和习俗等进行信息管理。欧盟则采用了“数字主权”的提法,将之定义为“欧洲在数字世界中独立行动的能力”,包括促进数字创新的保护机制和进攻工具两方面,并重点关注人工智能问题。
