开云体育

智能开云APP下载治理沈伟:人工智能治理需要什么样的国际条约?

2025-07-19
浏览次数:
返回列表

  开云体育[永久网址:363050.com]成立于2022年在中国,是华人市场最大的线上娱乐服务供应商而且是亚洲最大的在线娱乐博彩公司之一。包括开云、开云棋牌、开云彩票、开云电竞、开云电子、全球各地赛事、动画直播、视频直播等服务。开云体育,开云体育官方,开云app下载,开云体育靠谱吗,开云官网,欢迎注册体验!

智能开云APP下载治理沈伟:人工智能治理需要什么样的国际条约?

  人工智能(AI)带来的风险亟需法律治理。随着AI全球多方治理格局逐步形成,AI国际法治理取得一定进展,其最新实践体现为欧盟《人工智能法》和欧洲委员会《人工智能与人权、民主和法治框架公约》(简称《AI公约》)。作为全球首个AI国际条约,《AI公约》试图梳理AI治理基本原则、硬法化AI治理国际软法,以及强化欧洲AI法治的“布鲁塞尔效应”。受限于表现形式、立法技术和缔约参与度,《AI公约》并不是一份理想的AI国际条约。我国应当在发展AI治理国际倡议等软法规则的同时,积极参与和推动AI国际法制定生成,供给AI治理中国方案。

  【作者简介】沈伟,上海交通大学凯原法学院,教授;吴柄萱,上海交通大学凯原法学院,博士研究生

  当今世界人工智能(AI)蓬勃发展,AI技术和各国社会经济发展联系日趋紧密。通过数据整理、信息整合、知识加工和再创造等过程,AI不仅推动了各类科技产品生成,还极大地刺激了数字技术发展。阿尔法围棋(AlphaGo)、自动驾驶汽车、生成式人工智能(Generative AI, GenAI)等一批新兴技术应用场景涌现,以深度求索(DeepSeek)为代表的新产品得到市场积极反响并产生全球性影响,许多企业开始借助AI重塑市场竞争格局。[1]此外,AI还是元宇宙等技术形态的生成逻辑,其深度学习、强化学习能力有强大的创新驱动作用。[2]然而,AI技术突破了旧有规范框架,引发了多层次风险。在政治风险层面,AI已具备介入政治安全议题的能力。[3]在经济风险层面,AI技术滥用引发信息伪造、数据合规、算法偏见等科技伦理问题。[4]在当前多重风险交织的背景下,基于风险的治理成为AI全球治理的基本共识。

  全球化视野下AI治理的表现形式多样。各国对AI的治理主要关注生产消费活动,AI技术标准、产业促进政策和安全治理框架都是典型的国内治理对象。国际上的AI治理聚焦技术流通环节,注重产品和技术行业规则、伦理规范,服务于AI风险可控前提下的可持续发展。近年来,各国纷纷制定本国AI产业战略部署。国际利益攸关者也出台多份AI治理原则、全球倡议、国际标准,如电气与电子工程师协会(Institute of Electrical and Electronics Engineers)的《人工智能设计伦理准则》、美国计算机协会(US Association for Computing Machinery)的《算法透明度和责任原则》等,[5]但这些都不构成严格意义上的国际法。

  2024年,继欧盟推出全球首部AI监管法规《人工智能法》(简称《AI法》)后,[6]欧洲委员会(Council of Europe)公布了全球首个具有法律约束力的AI国际条约《人工智能与人权、民主和法治框架公约》(简称《AI公约》),开辟了AI治理新纪元。[7]本文主要分析《AI公约》出台的背景、内容和推动AI治理的可能效果,辅以对全球需要怎样AI国际条约的辨明,为我国积极推动制定理想的AI国际条约、深度参与AI全球治理提供思路和借鉴。

  目前,AI全球治理呈现技术大国主导、国际合作协同的多方治理格局。技术大国层面,美国于2021年颁布《2020年国家人工智能计划法案》(National Artificial Intelligence Initiative Act of 2020,NAIIA),在白宫科技政策办公室(Office of Science and Technology Policy, OSTP)下设立国家AI计划办公室,以保障在AI领域的国际领导力。随后,OSTP发布《人工智能权利法案蓝图》政策计划,[14]美国国家标准和技术研究院(National Institute of Standards and Technology)发布《人工智能风险管理框架1.0》,进一步完善AI法律监管框架。[15]自2017年发布《新一代人工智能伦理规范》(以下简称《AI伦理规范》)以来,我国多次出台相关法律与政策。我国于2019年发布《人工智能安全标准化白皮书(2019版)》,2021年颁布《中华人民共和国个人信息保护法》(以下简称《个保法》)和《人工智能伦理安全风险防范指引》,2023年公布《人工智能伦理治理标准化指南》,2024年出台《国家人工智能产业综合标准化体系建设指南(2024版)》和《人工智能安全治理框架》。在国际合作层面,2019年,经济合作与发展组织(Organization for Economic Cooperation and Development, OECD)发布全球首个政府间AI行业标准《人工智能发展建议》,提出了“负责任地管理可信AI”的AI全球治理原则。[16]此后,世界卫生组织(World Health Organization, WHO)发布《世界卫生组织卫生健康领域人工智能伦理与治理指南》,联合国教科文组织(United Nations Educational, Scientific and Cultural Organization, UNESCO)也发布《人工智能伦理问题建议》(以下简称《AI伦理建议》)等文件,[17]共同推动AI全球多方法律治理的进程。

  主权国家对AI实施法律规制虽然保证了AI监管规则的法律约束力,但也引发了AI治理国别分化现象,造成了AI治理模式的差异。[18]AI治理国内模式的差异不仅无益于国际社会整体性应对AI风险,而且阻碍了国际共识的形成,使得AI国际法治陷入困局。AI治理国别差异主要体现为治理思路、监管标准和规则范式的分化。

  二是AI监管标准有所差别。欧盟《AI法》旨在建立欧洲乃至全球最高AI监管标准,从严管控AI商业活动。一方面,根据《欧盟运行条约》第288条第2款,欧盟法律对各成员国具有普遍适用性和整体拘束力,[22]各成员国原则上都应遵守。[23]欧盟成员国需要按照《AI法》监管标准在本国境内对AI产品与技术进行管控。《AI法》作为超国家法发挥了在欧盟内促进AI研发应用、防范AI滥用风险的上位法作用,[24]增进了欧盟AI治理标准和治理水平。另一方面,《AI法》也确立了高标准罚则制度。《AI法》规定对违法企业最高可处3500万欧元或该年全球营业额7%的罚款,[25]形成制度威慑。相较之下,中美都未采取如此严格的监管措施。根据我国现有AI监管制度,除非违反数据安全或个人信息保护规则,开发利用AI技术的科技企业不会面临高额罚款。此外,《AI伦理规范》等伦理规则、行业规范本身也没有规定罚则,这为企业探索AI技术孵化模式留有空间。美国联邦法律亦未规定类似《AI法》的高额罚款。在各州法律中,德克萨斯州众议院于2024年12月23日提交审议了《负责任的人工智能治理法案》(Texas Responsible AI Governance Act),将违法引起的处罚上限规定为10万美元。[26]由此看来,欧洲AI监管标准的严厉程度的确在全球居于首位。

  三是AI规则范式存在差异。欧盟依赖专门成文法律实施AI治理,《AI法》本身吸收了利益相关各方的考量。在《AI法》草案内容中,欧洲标准化委员会、欧洲电工标准化委员会及欧盟各成员国技术标准都被引为法案的参考标准。审议《AI法》议案时,欧盟理事会、欧洲议会就是否引入“基础模型”理念展开辩论。法、德、意等国还在三方对话机制达成一致后提出反对意见,要求不监管AI基础模型、保护本国AI孵化企业。[27]我国尚未制定AI单行法,而是以AI相关法律、法规、规章的方式展开AI治理,形成了行为治理、法益治理所需的法律框架。《中华人民共和国网络安全法》(以下简称《网络安全法》)、《数据安全法》和《个保法》适用于AI引发的互联网、数据和个人信息安全问题。我国还发布了首部AI监管法规《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》),并配套出台了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等行政规章。[28]直至近期,我国才将AI监管专门法《人工智能法》列入立法工作计划。[29]美国侧重于通过行政命令等规范类型完善AI治理。例如,美国逐步推广AI技术的合法开发与利用,先后于2019年出台《维护美国AI领导地位的行政命令》,2020年发布《促进政府内可信AI技术使用行政命令》,2023年推出《关于安全、可靠、可信地开发和使用AI的行政命令》。2021年,NAIIA在形式上表现为法案,但实质上是2019年、2020年两则行政命令的整合。[30]由此可见,各国AI治理的法律表现形式不同,归根结底是在权利义务规制、责任归属等问题上的立场不同。

  一是非国家主体参与驱动。对AI挑战的国际法回应主要来自国际组织。面对AI技术在一国领域内的传播与应用,主权国家可以通过法律强制力保证AI治理规则的有效性。然而,由于不存在全球政府,以《AI法》为代表的超国家机构的区域国际法或“超国家法”(supranational law)[34]填补了AI国际法治理的制度空白。欧盟是政府间区域性国际组织,具有独立法律人格及超国家性。欧盟法是“调整欧盟各国对内和对外关系的国际法和国内法规范的总称”,[35]既是区域国际法,也对各成员国具有直接和最高效力。欧盟《AI法》对各成员国起到约束和指导作用。[36]

  二是以软法治理为主。目前AI相关国际法律尚不完善。根据《国际法院规约》(Statute of the International Court of Justice)第38条第1款的规定,国际条约和国际习惯是国际法的主要渊源,是国际硬法的构成部分。国际条约是明确成文的国家间条约、公约、协定,国际习惯的成立要满足“国家实践+法律确信”要求。按此标准,AI领域国际硬法明显缺位,软法在AI治理中扮演着重要角色。在AI领域,截至2021年,全球共产生634个软法文件,仅2017—2019年就有超过500个文件。2021年,UNESCO发布的《人工智能伦理问题建议书》(Recommendation on Ethics of AI)获193个会员国协商一致通过,成为AI全球治理准则之一。[37]也有学者将上述软法规范称为“准监管”(para-regulation),这类规范虽不具有强制执行效力,但具备主导AI议题、设定监管路径依赖、塑造AI治理可追溯性的能力。在AI领域,真正意义上的监管恰始于准监管。[38]

  三是监管目标趋同化。在AI国际法治理中,监管目标和规制原则有趋同倾向。在全球现存的84个AI伦理规范中,大部分以公平、正义、隐私、无害、自由等11个价值原则为共识基础。[39]OECD、联合国、WHO也在AI伦理方面提出了人类社会普遍关切的共识性原则,折射出AI软法治理的共同偏好。AI可能在技术层面引发数据训练失真、算法技术非中立、算力资源配置不均等系统性风险,在非技术层面引发数据流动中的泄露、算法黑箱和算法歧视、治理规则缺位等非系统性风险。[40]AI国际法的监管目标也较为一致,均聚焦安全、人权等风险治理面向。

  四是治理需求差异化。尽管目标趋同,但各国AI技术发展水平的差异导致各自风险治理的侧重点不同,进而引发了AI国际法治理需求的差异。美国在AI国际倡议中强调市场的自我调节和技术创新作用,主张依托倡议性文件、分散监管模式实现AI全球治理,实则是希望借助宽松的AI国际治理体系,利用市场机制扩大资源集聚效应,掌握AI技术主动权。欧盟AI法沿袭了在数据跨境流动、碳排放和碳交易等新兴领域已经展现的“以市场换监管”思路,力图制定有全球影响力的区域国际法,避免在市场环境碎片化背景下各国自行其是。我国则在监管中关注发达国家和发展中国家的立场差异,倾向于推动AI国际法向服务发展中国家利益的方向转变,为AI技术后发国家争取制度保护,实现全球监管的协同发展。[41]

  五是以间接规制为主。国际法通常不直接供给AI监管规则,而是围绕AI产业技术进行间接规制。《全面与进步跨太平洋伙伴关系协定》(Comprehensive and Progressive Agreement for Trans-Pacific Partnership, CPTPP)、《区域全面经济伙伴关系协定》(Regional Comprehensive Economic Partnership, RCEP)、《数字经济伙伴关系协定》(Digital Economy Partnership Agreement, DEPA)等多边协定,以及《新加坡澳大利亚数字经济协定》(Singapore-Australia Digital Economy Agreement, SADEA)等双边协定文本均有与AI有关的条款,如CPTPP以第14章、RCEP以第12章为电子商务专章,DEPA第8条和SADEA第31条是AI共识性专条。这些国际协定中存在跨境数据流通、数据保护、数据访问和政府公开、知识产权与算法、金融科技、密钥和网络安全等常见AI应用场景的规定,形塑了数字经济时代的国际经济法,也是AI全球治理议程的构成部分。[42]国际法作为国内法和全球共识的“摆渡人”居中发挥“结构性耦合”的作用,保障AI全球“善治”。[43]

  欧洲在AI治理方面具有先进经验,是全球AI立法最活跃的地区之一。自2018年欧盟提出基于风险的AI管理方法[44]以来,风险评估理念逐步深入欧盟AI法律与政策。《AI公约》是全球AI法律治理的重要成果,既呼应了具有多层架构特征的欧盟运行体系,又深化了AI国际法治理。[45]欧洲委员会认为《AI公约》有望解决将人权制度应用于AI领域的解释性难题,在法律上引入AI治理基本原则,确定适用于经贸领域的AI国际人权法规范。[46]分析《AI公约》的内容和目标,有助于更加直观、清晰地认识其制度贡献。

  就其内容而言,《AI公约》在汇总欧洲内部共识、初步统一AI治理规则、实现欧洲AI治理模式国际化等环节取得了一定进展。

  首先,《AI公约》汇集了欧洲各国在AI领域的治理共识。随着全球AI监管竞争提速,各国将国内法协调提上日程,推动国际法治理框架加速成型,促使AI国际法文本陆续涌现。[47]多方知识汇总、多边协商谈判、协调一致的规则制定模式是AI国际法形成的主要路径。英国曾于2023年召开全球首届AI安全峰会,为规则制定寻求多方磋商。OECD、七国集团(G7)、UNESCO的AI治理框架在确立过程中均体现了这一模式。[48]如今的《AI公约》也反映了该模式的合理性。欧洲委员会自2019年开始研究出台AI国际条约的可能性,于2022年1月主持成立了特设政府间AI委员会(Ad hoc Committee on Artificial Intelligence, CAHAI),主导了为期超过两年的缔约谈判进程,期间欧洲委员会全体成员国、观察员国都参与了公约起草和谈判制定。欧盟委员会、欧洲数据机构以及私营部门的代表也参加了《AI公约》的制定工作。[49]在序言部分,《AI公约》至少确立了人权、民主和法治三个宏观价值和加强进步创新、促进个体平等、保障个人隐私权、开展数字扫盲等具体共识。在正文条款中,《AI公约》第一章“总则”、第二章“一般义务”是条约内容的概括总结;第三章“与AI系统生命周期内活动有关的原则”列举了AI系统应当保障的各项法益;第四章“补救措施”中提出了利益受侵害主体的救济路径;第五章“评估与减轻风险及不利影响”中要求建立风险预测和监控框架;第六章“公约的实施”阐述了AI系统开发利用中的特别注意事项。上述章节基本整合了欧洲各国对AI治理的观点和态度,形成了一种底线共识,发挥了增进AI国际法治的正面作用。

  最后,《AI公约》弥补了各国AI治理的不足。欧洲委员会是由46个成员国、5个正式观察员国和1个准观察员国组成的国际组织。其46个成员国包括全体27个欧盟成员国和英国、乌克兰等19个非欧盟成员国,5个观察员国分别是加拿大、梵蒂冈、日本、墨西哥、美国,1个准观察员国指以色列。[56]欧洲委员会在欧盟框架外发挥议事、磋商、谈判和国际协调功能。相较《AI法》展现的区域国际法模式,《AI公约》在酝酿过程中充分吸收了欧洲国家及非欧洲成员国家的意见建议,扩展了造法思路的来源。在制定谈判过程中,澳大利亚、阿根廷、哥斯达黎加、秘鲁、乌拉圭等5个域外国家也加入了这一进程,使《AI公约》的条款更具有广泛性。《AI公约》出台至今已获得美国、英国、欧盟、以色列、挪威、冰岛、格鲁吉亚、黑山、摩尔多瓦、安道尔和圣马力诺等11个缔约方签署。该公约的生效须获得至少5个签署国(其中包括至少3个欧洲委员会成员国)批准,且将于3个月期满后的下个月首日开始施行。[57]目前批准程序还在进行中。由于《AI公约》仍对其他国家开放缔约,其有望持续吸纳新缔约方,从而增强其包容性、拓展其适用性。

  一是体系化AI国际法律治理。《AI公约》在界定基础概念、分配风险规制义务、制定监管原则等方面有所创新,延伸和体系化了欧盟《AI法》。《AI公约》聚焦AI相关基本权利。其序言部分将规制对象限缩于《AI法》第9条涉及的“AI系统全生命周期内活动”,将AI风险具体表述为造成数字歧视、侵害隐私和个人自由的AI系统滥用,将基于产业活动的监管调整为旨在保障人权的监管。[58]为兼顾AI技术发展和公民权利保护两大立法目标,《AI公约》采取了概括性的风险规制义务表述。[59]《AI公约》第4条阐释了基于现行有效国内法和国际法、贯穿AI系统全生命周期的人权保护义务。第5条确立了保障民主程序、遵守法治原则的义务。[60]基本原则方面,《AI公约》整合了监管原则专章,构建基于原则的(principle-based)人权监管模式。[61]《AI法》的监管原则条款散见于各个章节。[62]不同于《AI法》基于规则的(rule-based)物项监管,《AI公约》第7—13条分别树立了人类尊严和个体自治、透明度和有效监管等7项基本原则。[63]通过体系解释,《AI公约》要求监管主体遵循人类尊严和个体自治原则,并在监管中体现有效问责、可责性及平等和非歧视原则。透明度和有效监管、创新安全原则是该公约的监管目标,隐私和个人数据保护原则则为监管手段提供了指导。[64]根据《AI公约》第11条“隐私和个人数据保护”原则专条,国内法和国际法规定的隐私和数据保护义务以及技术标准和监管框架中的隐私和数据保护规范对《AI公约》缔约国具有约束力。这种造法模式使《AI公约》项下的监管更为有法可依。[65]

  二是硬法化AI国际监管规则。《AI公约》体现了AI国际法治理在法律解释、立法推动、软硬法协同中的积极作用,推动了AI治理硬法化。法律解释方面,欧盟委员会已签署批准《AI公约》,该公约成为解释《AI法》等法律条款的重要依据。例如,对具有不可接受风险的AI系统,《AI公约》第16条要求缔约方评估是否需要禁用该AI系统,并进一步完善执行机制。《AI公约》第23条将“缔约方会议”确立为监督与合作核心机制,并授予其解释条款、发布建议、修订公约内容等职能。[66]这也是《AI法》希望实现但未能实现的制度设计。就国际法而言,《AI公约》将散见于各种宣言、倡议中的AI治理理念转化为国际条约,使AI软法治理规范硬法化。哈佛大学研究机构通过分析30余份关于AI伦理的主要国际宣言,归纳出隐私保护、问责机制、公平与非歧视性等原则要求。[67]《AI公约》第三章将上述碎片化软法原则纳入国际公约,形成了7项基本原则及其概括性义务和监督保障框架。《AI公约》第四章第14条要求各缔约方在“符合国内法规定的情况下”对AI侵犯人权的行为实行补救,第15条进一步约定各缔约方应“根据适用的国内法和国际法”保障知情权。这些配套制度增强了国际通用AI治理规则的权威性。《AI公约》的部分内容已超出欧盟法律范畴,实现了软硬法协同。例如,《AI公约》第13条创新安全原则条款建立监管沙盒(regulatory sandbox)、发布特别指导或“无行动函”等,都是具体的执行方式。[68]《AI公约》第27条规定了缔约方之间既有相关协议或条约的优先适用性。[69]这一条款协调了《AI公约》与《AI法》的关系,[70]或可成为沟通国内法和国际法的桥梁型条款。

  三是强化欧洲AI治理的“布鲁塞尔效应”。《AI公约》反映了欧洲委员会扩大AI治理规则接受度、推进AI国际条约普适化的战略意图。其根本目的是适应AI全球治理的区域竞争格局,在竞争中获取先发优势和比较优势,强化欧洲AI治理的“布鲁塞尔效应”。欧盟立法产生“布鲁塞尔效应”需要满足五个条件:庞大的市场规模,有效的监管能力,严格的监管标准,监管对象与监管制度的深度绑定,以及技术、经济、法律上的不可分割性。[71]例如,GDPR对全球数据保护立法起到示范作用,推动了美国加州《消费者隐私法案》等一系列法律的制定。[72]《AI公约》旨在进一步强化这种“布鲁塞尔效应”。《AI公约》能够提升各缔约方的AI监管能力,即“颁布规则并确保规则得到遵守的能力”。这一能力的发挥取决于监管专业知识、政策制定一致性和制裁权限。[73]《AI法》第64—70条在欧盟层面建立了欧盟AI办公室、AI委员会、独立专家科学小组和成员国专家库利用机制,[74]提高了AI监管知识共享程度。关于政策制定一致性,欧盟委员会和欧洲委员会正在推动更新“AI协调计划”,以提高各国行业规则和产业标准协调程度。欧盟还和美国通过欧美贸易与技术委员会、数字伙伴关系网络等机制增进合作,初步确立了美欧AI治理协同合作政策。[75]制裁权限上,《AI公约》第27条第2款允许作为欧盟成员国的缔约方就公约相关事项适用欧盟法律,等同于将《AI法》的执行程序和制裁权限引入《AI公约》。《AI公约》扩张了欧洲AI监管标准。欧洲是最早发布具有规范意义的专门性AI伦理规则的法域之一。[76]欧盟法律持续投入行政司法资源,遏制AI技术同市场、媒体资源绑定带来的算法垄断权力,维护欧洲公民的和政治平等权。[77]《AI公约》践行了这种技术民主理念,初步建立了公共领域信息共享机制,复制和扩大了《AI法》的“最大公约数”,[78]其不仅满足了欧盟公民的风险厌恶偏好,还将监管标准推广至格鲁吉亚、以色列等非欧洲国家。《AI公约》还增强了各缔约方在AI治理上的不可切割性,其原则性、包容性和开放性可助力更广泛的AI国际合作。例如,《AI公约》第25条第1款专条规定AI治理国际合作,鼓励各缔约方协助非缔约方按该公约条款行事,并推动其加入公约。[79]《AI公约》借鉴了G7《开发先进人工智能系统组织的国际行为准则》中关于AI监管的表述,[80]也承继了美、英、欧盟关于AI竞争联合声明的精神。[81]上述效应也将重塑全球AI市场格局,推动各国加强对国际法律的重视,扩大欧洲在AI国际法治上的影响力。

  AI国际法治离不开国际硬法治理,国际条约是国际硬法的代表。AI的全产业链影响为AI全球治理提供了必要性和正当性基础,AI技术的迅猛发展也构成对国家主权、国家有效监管等国际法基本原则的冲突,造成对国际人权法、国际知识产权法等部门国际法的挑战,因此,构建和完善AI治理的国际条约体系尤为必要。[82]为应对上述挑战,国际社会提出多种应对策略,形成了对AI国际条约的理想预期。

  首先,理想的AI国际条约应当具备国际条约的核心构成要件。国际条约有形式、内容和规范效果三个基本构成要件。一份成熟的AI国际条约至少需要在形式上满足多边要求,在内容上为AI治理确定各国权利义务和条约执行机制,在规范效果上为后续国际合作设置通用AI监管框架。[83]如此方能形成有效的国际法规制,完善以国际条约为核心的AI国际法治。形式上的多边要求建立在AI风险治理的时代背景下。主权视角下,传统的主权边界已不再能限制AI产品与技术的国际流通,AI风险治理依赖国内法的域外效果。国际条约提炼了各国AI治理共识,推动了AI国内法律规范国际化,能够增强AI全球治理的生命力。内容上,不同于传统国际条约,在法律制定层面,AI国际条约对造法技术提出更高要求。在参与主体层面,AI国际条约要求各国政府、国际组织、企业和个人的多元主体参与,对各种主体课以新的义务类型,利用有限监管资源实现AI系统全生命周期监管。为确保AI国际条约的有效执行,可以采取在全球范围内将AI软法治理硬法化、修改与制定现行双多边经贸条约等造法路线。AI国际条约建立了通用AI监管框架,其效果在于鼓励主权国家履行义务与承担责任、设立专门AI监管国际机构协调各国AI治理进程,最终深化AI国际法治。以治理手段多元化、规制思路多样化为特征,围绕国际条约构建的AI国际法治体系将为AI全球治理带来积极变量,有望改变当前各国疲于以国内法手段应对AI新产品、新技术、新路线的被动态势。

  其次,理想的AI国际条约应当兼容国际“超级软法”(super soft law)和国际硬法的优势,做到监管细腻、执行有力。所谓“超级软法”,是指AI治理中不具备正式法律约束力,但在合规层面上认可度、接受度足够高的指引性文件,如前文提及的行业规则、产业标准、伦理规范等。这些“超级软法”填充了国际法的定义释明、范畴澄清、适用指南等细节,基于这些规范制定的AI国际条约在规则上更有普适效力。国际硬法或是具体调整各缔约方AI治理法律关系、改变各国权利义务布局的专门性AI国际公约,或是已被纳入国际经贸关系的双边和多边贸易、投资、金融协定。两者在制度优势上有相通之处。国际硬法的优势在于更高效的执行力、更稳定的实用性以及更可靠的制度支持能力,能够为各缔约方提供法律确信、指导各国开展AI治理国际法实践,从而形成有法律效力的国际习惯。[84]无论是“超级软法”还是国际硬法,都能巩固AI国际法治有效性、提升AI国际法治的权威。成功的“超级软法”或国际硬法文本还能指引一国提高AI国内立法技术,帮助该国对接国际高标准AI法律规范,为该国乃至该国所在区域经济政治安全护航。因此,好的AI国际条约需要同时以国际“超级软法”和国际硬法的造法技术为支撑,方能经受住实践检验,在技术迅猛迭代、风险暗流涌动的当今世界行稳致远。

  最后,理想的AI国际条约应当以全球AI相关领域为覆盖范围,效力与影响不拘于一隅。AI国际条约应超出某一个或几个特定国家的利益需要,符合世界各国共同利益。党的二十届三中全会《决定》明确提出要“推进人工智能治理法治化”。[85]推进AI治理法治化,就是发挥AI全球治理的善治属性,推动AI国际条约等制度成果生成与发展。AI国际条约应发挥国际公共产品的作用,符合人类社会对AI健康发展的期待。各国对AI国际条约也抱有类似的期许,通过国内国际治理表达共享AI国际法治成果的愿望。除欧盟《AI法》、欧洲委员会《AI公约》外,英国科技部门提出《人工智能监管的创新方法》草案,美国国会通过针对AI深度伪造的监管法律,法国数据监管部门出具《AI法》和GDPR的制度衔接建议,各国分别采取行动,从整体上推动AI国际法治议程进展。在跨国合作方面,2024年5月,我国与美国举办首届AI政府间对话,同法国发布AI全球治理联合声明。我国还于2024年7月在上海举办2024世界人工智能大会暨人工智能全球治理高级别会议,会议通过《人工智能全球治理上海宣言》,倡议构建AI全球治理机制。[86]这些国内和国际努力都有助于取各方AI治理规则交集、衔接监管制度,促进通用权利义务和执行条款的塑造,最终促成一份或数份AI国际条约。整合各国制度贡献的AI国际条约也自然具备全球视野与国际适用性,从而有望实现真正的“放之四海而皆准”。

  《AI公约》相较前文所述理想的AI国际条约仍有差距,在构成要件、制度能力和效力与影响上都有所不足,难以满足AI治理的根本需要。

  首先,《AI公约》存在要素缺陷,在国际条约的形式、内容和规范效果等方面均有局限性。《AI公约》仅以国际公约的形式呈现,全文仅有36条,过度追求条文表达简洁性,而忽视了形式协调性。例如,《AI公约》最重要的创新点在于第二章“一般义务”专章,然而整章仅有第4条、第5条两个条款。同样,第四章“补救措施”专章在重要性上仅次于一般义务,但全章也只有第14条、第15条两个条款。相较之下,第三章规定的基本原则、第六章公约实施中的特别注意事项共包含13个条款,占到全文篇幅比重的三分之一。《AI公约》的内容也欠丰富,并未实质性地为各缔约方课以AI治理权利义务和责任分配。该公约在权利救济方面仅保留宽泛而难以落实的申诉程序,且未约定违约罚则和争端解决机制。[87]在规范效果上,弗朗西斯卡·法努奇(Francesca Fanucci)认为该公约已被“稀释”,难以在后续国内国际立法中充当监管框架基础。各国AI执法能力差异也使公约的同质化规定难以落实。即便公约得到适用,服务国家安全的AI系统得到监管豁免,各缔约方在执行公约时仍有相当自由裁量权限,[88]私营企业等AI治理主体尚未受到公约拘束。这些缺陷都使《AI公约》欠缺监管强度和执法力度,在关键监管规范上浮于表面、流于形式。

  其次,《AI公约》也未达到对其制度能力的立法预期。其既未能充分整合AI“超级软法”的制度优势,又缺乏AI国际硬法应有的约束力。在促进经济发展、实现国际社会发展目标等国际软法的侧重点上,《AI公约》的实际作用有限。《AI公约》出台以前,联合国机构已通过数份AI治理规范,作为国际软法确立了基本的AI治理原则。例如,2021年,UNESCO全体193个会员国一致通过联合国首个AI全球治理性文件《AI伦理建议》;2023年,联合国成立AI咨询机构;2024年9月,联合国未来峰会通过《未来契约》及其附件《全球数字契约》,为AI全球治理提供权威指南。[89]《全球数字契约》将创造包容、开放、可持续、公平、安全、可靠的数字未来作为宗旨,提出13项技术治理基本原则,[90]呼吁各国弥合数字鸿沟、扩大数字经济覆盖面、加强AI全球治理以造福人类。[91]相较而言,《AI公约》全文多次出现“人权、民主和法治”字样,并强调国际经济治理体系中的“民主”内涵也是公约正当性的来源。[92]然而,公约中仅在第4—5条简要介绍了相关内容,对定性和解释一笔带过,[93]并未充分评价何为人权、民主与法治。[94]该公约略过AI带动经济发展的重要内容,未能触及国际AI争议协调、私主体争端解决机制等人权保护机制,也未提供明确成文的民主或法治纪律。《AI公约》仅包含7项基本原则,与《全球数字契约》的13项基本原则相比,在联合国AI全球治理发展导向、可持续性、互操作性和支持发展中国家等方面存在明显缺失。在对国际硬法文本殊为关键的风险控制层面,《AI公约》对新兴技术的适应性也有待提高。作为国际公约,《AI公约》内容未涉及生成式AI、大语言模型等近年来备受关注的技术应用场景。《AI公约》中的风险管理条款未对风险分类和管理具体流程作出说明,对数据治理、算法透明性和跨境数据流动等关键领域的处理也相对笼统,难以应对AI技术发展的复杂多样性。《AI公约》也无法解决其条款滞后性问题。当公约仍执着于以人为本的理想主义监管时,AI已渗入各国的司法制度,通过算法改变该国的执法决策偏好并反过来影响国际争端解决程序。[95]《AI公约》仅以建议性语言要求缔约方采取暂停或禁止措施,而这种松散监管不足以应对高风险AI应用的潜在威胁。[96]这些结构性缺陷都使《AI公约》难以承担AI全球治理的核心任务。

  最后,《AI公约》仍有区域主义色彩,尚不具备全球影响力和约束力。欧洲委员会秘书长玛利亚·佩伊契诺维奇·布里奇(Marija Pejcinovic Buric)表示,《AI公约》是“对各大洲有相同价值观国家支持的国际法律标准需求的回应”。欧洲委员会官方新闻指出,《AI公约》是一部世界各国都有资格加入、允许非欧洲委员会成员国签署和遵守的国际公约。[97]然而,目前《AI公约》仅有11个正式缔约方,且绝大部分在AI产业发展上处于后发地位的发展中国家并未签约,[98]我国也没有参与签署。截至2024年底,在所有缔约方中,仅挪威一国接受了《AI公约》约束,并将该公约第2—6章载明的原则和义务适用于私主体AI活动监管。[99]并且,迄今为止没有一个非欧洲委员会成员国签署该公约。客观上,《AI公约》仍是美国及其盟友的小多边俱乐部式规则,旨在保持美欧制度优势,使发展中国家实际上或感到被排除在外(are or feel excluded)。这可能促使出现“中国领导、协调或培育”下全球南方国家主导的另一版AI国际条约。[100]除缔约国家不多以外,各大科技企业也对《AI公约》持观望态度,对签约不甚积极。苹果、英伟达、Meta、Mistral AI等知名科技公司都未签署《AI公约》,并表达了对该公约过于依赖自愿承诺机制、约束力不强的担忧。[101]这种客观情况令《AI公约》难以成为受全体联合国会员国广泛欢迎的国际条约,使美欧AI治理陷入自行其是的境地。

  《AI公约》首倡国际硬法层面的AI治理,的确发挥了法律和社会层面的积极作用。但囿于上述各方面的缺陷,《AI公约》难以满足全球各国的期待。在AI越发展现其风险性、破坏性的当下,全球法律体系面临AI可能修补、替代或破坏既有规范的三种可能。即便以《AI公约》为代表的国际条约能够应付AI带来的风险,由于缺乏实用能力和制度响应,这些国际法也很难积极引导AI改善现行法并带来善治。[102]

  我国AI技术正处于快速发展阶段,尤其在计算机视觉领域已取得一定优势,监控和追踪技术也走在世界前沿。DeepSeek等先进GenAI应用在研发成本、算力支持和自主学习程度等方面甚至已取得全球领先优势,冲击了美国、欧洲AI技术先发地位。据BBC报道,DeepSeek面世导致英伟达(Nvidia)股价骤跌17%,对全球AI产业格局产生很大影响。也应看到,受计算能力局限等因素影响,商汤科技等我国AI企业还有较大上升空间。[103]我国应当客观、准确评估《AI公约》造成的国内国际法律影响,并做好对于未来技术和制度竞争的应对规划。

  《AI公约》将进一步塑造AI治理的区域竞争格局。近年来,中美欧在AI等高技术领域出现了竞合博弈的态势。[104]2019年,欧洲的科技投资额度是五年前的4倍,拥有近600万专业开发人员。欧洲在AI等信息科技领域的投资额占区域国内生产总值(GDP)的1.7%,同中国的2.16%、美国的3.33%相比,差距并不显著。[105]根据2020—2024年企业表现,欧盟培育出瑞士阿西布朗勃法瑞集团(ABB)和德国库卡公司(KUKA)等全球工业机器人领先企业,在AI制造和芯片生产方面有蔡司、阿斯麦等知名大公司和Aleph Alpha、Mistral AI、Helsing等新锐企业,获得了一定市场支配力。但近年来,欧洲相较中美的AI投入和产出差距被不断拉大。在投入方面,据统计,在2018—2023年这五年中,美国较欧盟多获得近900亿欧元投资;2023年,中国一国的AI私人投资额就超过德国、法国、瑞典、西班牙四个欧盟领先AI投资国家的私人投资总额。[106]在产出方面,截至2017年底,全球十大互联网企业没有一家落地欧洲,全球185家AI独角兽企业中仅有10%来自欧洲,而美国和中国同类型企业数目已分别占到总数的54%和23%。在当时的欧洲公司中,仅有半数左右取得了正回报率,且89%的全欧营收来自美国。[107]为此,美欧正基于“价值观同盟”[108]形成并巩固AI治理的“小多边主义”(Minilateralism)机制,[109]试图遏制我国AI产业发展。《AI公约》的出台,标志着欧洲同我国的AI制度竞赛进入新阶段,其烈度和波及范围亦有所增强。

  《AI公约》也会同我国AI治理规则发生摩擦。结合前文所述《AI伦理规范》等行业指引,我国初步构建了软硬法兼具的AI治理规则体系。《AI公约》作为国际条约有国际影响力,其AI治理思路同我国有明显区别,部分条款在适用范围及规范限度上同我国国内法存在差异。

  首先,《AI公约》和我国法律在AI治理上侧重不同。欧洲各国多为经济发达、技术先发国家,能够形成建设数字经济治理体系、建立权利导向型监管模式的共识。《AI公约》反映了这种追逐AI治理最高标准的心态,有“不合规即违法”的意蕴。我国是发展中国家、技术新兴国家,立法及政策导向强调技术突破下的国家主权与数据安全。《网络安全法》《数据安全法》划定了信息维护和数据保护的底线,AI技术得以在不触及法律红线的前提下开发利用,总体呈“不违法即合规”态势。监管侧重上的不同使《AI公约》难以适配我国的AI治理需求。

  其次,《AI公约》和我国法律对AI技术的态度不同。这一点体现为技术发展阶段不同导致的监管口径区别。《AI公约》要求AI技术在开发、部署和使用中符合保护人权、民主和法治的国际义务,欧洲AI技术处于细化风险管控、强化合规要求的阶段。我国则尚处在AI技术安全和发展并重的阶段。例如,《AI伦理规范》第3条将增进人类福祉置于6项AI伦理基本原则的首位,表达了对合理利用AI技术的信心。[110]《暂行办法》也要求鼓励GenAI创新应用、推进基础设施建设,希望实现技术促进和风险治理的平衡。[111]这些规范表明,我国目前仍以发展AI技术为法律或政策的优先事项,不倾向于对AI技术进行过细过实的制度管控。

  最后,《AI公约》和我国法律在AI监管强度上也有差异。《AI公约》执行的风险分类分级监管标准较为严格,涉及AI全产业链诸多门类。如此全面的监管显然不适用于正处于产业发展期的我国AI行业。150余家欧洲科技公司曾联名欧洲AI监管模式,认为这种强势监管模式将抑制AI技术在当地的发展、打击行业发展的积极性和能动性,最终导致政府独断,与《AI公约》的技术民主精神南辕北辙。并且,过于细化的AI风险划分缺乏实践案例支撑,可能造成法律治理“空中楼阁”现象。[112]对上述《AI公约》监管“副作用”的批评恰能引发我国的共鸣。我国的AI白皮书、治理指南、治理框架等规范均紧密结合行业发展趋势,虽未能按照风险层次实现文本标准化、规则体系化,但也形成了动态多元的“生态治理”方案,[113]相较《AI公约》更为科学合理、注重实际。

  《AI公约》对我国深度参与国际条约的起草与制定提供了启示。通过制定国际规则并构建符合国家利益的话语体系,一国能够宣介其在AI全球治理上的基本态度和法律观点,输出该国的法律制度与国际实践。我国应当适时总结推动、实施布局AI治理中国方案,加速国际广泛认可的AI国际法生成,扩大我国在AI国际法治中的线]我国现已就AI监管参与制定数项国际合作决议、倡议。2023年,我国提出《全球人工智能治理倡议》(以下简称《AI治理倡议》),就提升AI技术的安全性、可靠性、可控性、公平性呼吁国际主体广泛参与。在内容上,该倡议在第1—2条呼吁促进国际合作与国际法建设,第3—13条提倡发展AI技术、实现国际协调普惠,第14—15条提出对联合国下一步AI促进行动的建议,具有跨地域性、无差别性和广泛适用性特征。

  [115]《AI治理倡议》和当前《AI公约》确立的AI治理基本原则存在部分重合。同时,我国在该倡议中强调增强发展中国家的代表性和发言权,确保AI全球治理权利、机会和规则平等,支持国际组织发挥核心协调作用,而这恰好是《AI公约》疏漏的。[116]2024年7月1日,联合国大会以143票赞成通过我国提出的《加强人工智能能力建设方面的国际合作决议》(第A/RES/78/311号决议,以下简称《AI能力决议》)。[117]该份决议是联合国首份AI能力建设决议,坚持了我国提出的以人为本、智能向善、造福人类等AI治理原则,保留了开放、公平、非歧视等亦体现于《AI公约》的基本原则。[118]《AI能力决议》同时回应了南北方国家的关切,相较《AI公约》更具国际代表性。同年9月25日,王毅外长提出我国《人工智能能力建设普惠计划》(以下简称《AI普惠计划》),并于10月函送联合国秘书长发布。[119]该计划为加强AI全球治理提出10项中国行动,在10项中国行动中有多达9项直接涉及中国对发展中国家AI能力建设的支持和援助。[120]这些承诺为执行《AI能力决议》提供现实路径,体现了大国担当,[121]同《AI公约》一味确立AI治理高标准、忽视发展中国家AI治理能力需要的造法基调有本质区别。以上述国际行动为基础,我国进一步深化AI全球治理合作,为AI本国立法、区域双多边协定和国际条约的制定确定了基准。受《AI公约》的启发,我国亟需进一步拓展AI治理场景、优化AI治理思路、积累AI治理经验,提出更高水平、更具包容性和普遍性的AI全球治理方案和规则,形成AI治理中国方案。这要求我国做到如下两个方面。

  第一,我国应当比照既有国际法和国际规则,以法律法规等高位阶立法形式加强AI风险治理,全面应对AI技术带来的挑战。

  [122]我国首部AI产业促进立法《深圳经济特区人工智能产业促进条例》已于2022年8月30日通过,其中提出了AI创新产品准入制度。然而,该条例的法律阶位较低且针对性弱,主要聚焦于AI相关产业准入问题。[123]我国应加快推进AI专门立法,推动AI法律监管体系完善,优化AI国内法治理。针对因侧重治理而导致的风险规制局限,我国可以借鉴《AI公约》倡导的AI治理机制,引入利益相关方商谈机制、公共领域信息共享机制并建立合理、有效、可执行的数据保护或技术合规罚则,为底线思维下的AI治理提供利益平衡性和执法尖锐度,逐步提高AI全生命周期法治水平。针对监管口径对技术发展的过度宽容问题,我国可以持续关注法律人格、技术控制和标准化等国际公认的AI重律问题,[124]跟进国际前沿立法动态。例如,《AI公约》在AI系统和基本权利保护关系上有体系性规定,美国NAIIA整合了应对AI不同方面影响的多个AI监管部门。[125]这些制度都为我国监控AI技术发展、实时跟进和法律追踪提供了思路。面对各国AI监管强度差异,我国可以参照《AI公约》的国际条约造法经验,通过区域或多边国际法文本尝试协调和统一多方AI技术标准和监管政策,在国际法造法过程中吸收他国AI治理经验的可取之处。第二,鉴于各国AI技术发展和治理水平差异,我国应积极适应AI技术跨国发展,承担大国责任,持续深化AI治理国际合作。《AI公约》就区域人权保护提供了监管思路,显示了国际法律原则一体化、多国共享的态势。

  [126]我国可以顺应这一趋势,在共建“一带一路”倡议、亚洲基础设施投资银行(亚投行)等多边经济框架下继续着力发展AI国际法文本,参与AI治理标准推广。当前,一系列国际倡议、决议历经积累,形成了AI国际软法治理矩阵。除我国《AI治理倡议》《AI能力决议》《AI普惠计划》外,OECD《人工智能发展建议》、UNESCO《AI伦理建议》、联合国《全球数字契约》、英国《布莱切利宣言》、法国巴黎AI行动峰会《关于发展包容、可持续的人工智能造福人类与地球的声明》等文本都在一定程度上整合了AI国际共识,[127]提高了区域和多边国际法出台的可能性。《AI公约》实质上也源自AI国际倡议,具有鲜明的欧洲色彩,其高标准、高人权关切、高技术要求的立法特征同其他国际软法形成分歧。我国可以在不同类型、立场的国际倡议中实现多方参与、兼容并蓄,借国际倡议的制定传播“中国声音”,形塑AI治理的全球多数立场。修订双边和多边协定,将AI监管规范引入既有国际条约也是可行路径。例如,我国可以基于已加入的RCEP第12章电子商务专章规定,在未来同RCEP其他成员国的经贸协定中引入AI相关电子商务条款,以体现我国AI治理思路。我国还可以借鉴DEPA第8条和SADEA第31条的AI治理共识性条款,在同其他发展中国家的经贸协作中复现同类型条款,修订或重新议定上述条款。《AI公约》推出了多种协同监管机制,如创新透明度监管方式、创建监管沙盒、引入特殊监管指南或使用不采取行动函等。CAHAI的解释性报告也鼓励各缔约方在AI系统全生命周期内纳入可靠和有效监督机制。[128]我国也可以在行业规则或产业标准中引入AI技术研发和产品生产的人工监督机制,以地方试点形式探索落实高水平治理规则,逐步与AI全球治理规则接轨。结语

  数字时代AI治理的重要性与日俱增,国内法在跨国规制上存在功能欠缺,国际法在全球监管上存在制度缺位。《AI公约》作为以确定统一监管标准、整合风险治理原则为目的的国际条约,在一定程度上推动了AI国际法治的进步,但也存在明显不足。《AI公约》条款缺乏约束力和执行力,其立法模式未能发挥国际“超级软法”和国际硬法的优势,缔约参与度和国际接受度较低。该公约在很大程度上只是欧盟《AI法》的翻版,没有提供更高层次的全球公共产品,不能真正满足AI全球治理的需要,并非国际社会迫切需要的国际法规范。

  世界需要的AI国际条约应具备一些基本要素。一是具有法律约束力和强制执行力。AI全球治理长期依赖行业自律和产业监管规范,而国际软法治理的缺乏直接影响了各国权利义务的功能。未来的AI国际条约应能直接确定各缔约方在AI全球治理层面的权利、分配各方的义务并对各方施以责任,配以惩罚性条款和争端解决条款,并提供较为完备的制度设计。二是具有风险治理导向、发展价值取向和公共产品属性。世界各国需要的AI国际条约须能回应各国共同关切,合理处置、评估乃至克服风险,在公共领域发展风险治理路径,为AI全球治理营造基于全球优化价值链(globally optimized value chain)的多方治理生态。三是具备普遍性、包容性和开放性。鉴于AI的无国界性,一份理想的AI国际条约也应当强化全球意识,突破区域保护主义桎梏,推动以指引性、合作性、协商性为特征的规范的形成。AI国际条约需要为AI的自主学习能力留有制度空间,不局限于个别场景或领域,在监管中把握AI产业—技术—社会互动的全球互联性。

  [129]满足上述要求的AI国际条约,才会是真正具有监管力度、公共视野和全球影响的,世界需要的AI国际条约。《AI公约》在对我国造成客观影响的同时提供了AI全球治理的制度性启示。《AI公约》意在体系化AI国际治理基本原则和规制工具,硬法化AI国际风险法治规则,强化欧洲AI法治的“布鲁塞尔效应”。《AI公约》也将加剧全球各国AI治理的制度竞争,造成不同治理路径和模式的摩擦。在AI治理思路方面,我国可以参考《AI公约》的规则核心和立法技巧,寻求权利保障与技术发展之间的平衡,以制度试点等方式确定最有利于我国AI产业发展和风险控制的监管路径。通过深化发展AI国际软法治理、积极参与AI国际硬法制定,我国可以进一步提升AI全球治理的话语权、影响力和竞争力,在成为全球科技强国的道路上获得国内法和国际法的双重制度助力,为人类社会提供更高水平、符合各国预期的AI治理公共产品。

  [3]. 封帅、薛世锟:《人工智能与政治安全形态演变:一项系统研究的尝试》,载《国际安全研究》,2025年第1期,第54—72页,这里第60—62页。

  [4]. 赵精武:《人工智能科技伦理审查制度的体系化建构》,载《当代法学》,2025年第1期,第84—96页,这里第84—87页。

  [5]. 薛澜、赵静:《人工智能国际治理:基于技术特性与议题属性的分析》,载《国际经济评论》,2024年第3期,第52—69页,这里第53、62页。

  [8]. 杨成铭、魏庆:《人工智能时代致命性自主武器的国际法规制》,载《政法论坛》,2020年第4期,第133—143页,这里第133—135页。

  [9]. 朱荣生、冯紫雯、陈琪、陈劲:《人工智能的国际安全挑战及其治理》,载《中国科技论坛》,2023年第3期,第160—167页,这里第161—165页。

  [10]. 陈兵:《人工智能应用的科技伦理与法治化建设》,载《人民论坛》,2024年第12期,第66—70页,这里第68页。

  [11]. 解正山:《数据泄露损害问题研究》,载《清华法学》,2020年第4期,第140—158页,这里第141页。

  [12]. 林爱珺、林倩敏:《AI换脸的技术风险与多元规制》,载《未来传播》,2023年第1期,第60—69页,这里第61—64页。

  [13]. 郑戈:《人工智能伦理的机制设计》,载《中国法律评论》,2025年第1期,第48—62页,这里第48—49页。

  [18]. 张新宝、魏艳伟:《我国人工智能立法基本问题研究》,载《法制与社会发展》,2024年第6期,第5—21页,这里第6—7页。

  [23]. [德]沃尔夫冈·多伊普勒:《〈欧盟人工智能法案〉的背景、主要内容与评价——兼论该法案对劳动法的影响》,载《环球法律评论》,2024年第3期,第5—27页,这里第9页。

  [26]. 《美国德州提出〈人工智能治理法案〉,每次违规最高罚10万美元》,安全内参,2025—01—02, 访问日期:2025—02—11。

  [27]. [德]沃尔夫冈·多伊普勒:《〈欧盟人工智能法案〉的背景、主要内容与评价——兼论该法案对劳动法的影响》,第8页。

  [28]. 谭寅亮:《全球AI监管新纪元——欧盟AI法案的影响与挑战》,CEIBS, 2024—11—18, 访问日期:2025—01—06。

  [29]. 张凌寒:《人工智能法律治理的路径拓展》,载《中国社会科学》,2025年第1期,第91—110页,这里第99页。

  [30]. 刘晓春、夏杰:《美国人工智能立法态势介评》,载《中国对外贸易》,2023年第10期,第38—41页,这里第38—39页。

  [31]. 沈伟、赵尔雅:《数字经济背景下的人工智能国际法规制》,载《上海财经大学学报》,2022年第5期,第123—137页,这里第125—126页。

  [34]. 李斌主编:《现代国际法学》,北京:科学出版社,2004年版,第2页。

  [35]. 张晓东:《论欧盟法的性质及其对现代国际法的贡献》,载《欧洲研究》,2010年第1期,第67—80页,这里第68页。

  [36]. 凌慧明:《欧洲联盟法与一般国际法之比较》,载《法学杂志》,1997年第2期,第32—33页,这里第32页。

  [37]. 曾雄、梁正、张辉:《人工智能软法治理的优化进路:由软法先行到软法与硬法协同》,载《电子政务》,2024年第6期,第96—107页,这里第96页。

  [40]. 邓悦、许弘楷、王诗菲:《人工智能风险治理:模式、工具与策略》,载《改革》,2024年第1期,第144—158页,这里第145—146页。

  [41]. 谭寅亮:《全球AI监管新纪元——欧盟AI法案的影响与挑战》。

  [42]. 沈伟、赵尔雅:《数字经济背景下的人工智能国际法规制》,第128页;沈伟、赵尔雅:《数字经济和数字博弈双重背景下人工智能的国际法治理》,载《武大国际法评论》,2023年第4期,第81—105页,这里第90页。

  [43]. 曾雄、梁正、张辉:《人工智能软法治理的优化进路:由软法先行到软法与硬法协同》,第96、106页。

  [44]. [德]沃尔夫冈·多伊普勒:《〈欧盟人工智能法案〉的背景、主要内容与评价——兼论该法案对劳动法的影响》,第7—9页。

  [45]. 李益斌、李浩洋:《欧美中人工智能监管规范比较研究》,载《当代世界与社会主义》,2024年第5期,第161—169页,这里第164—165页。

  [50]. 吴沈括、许林逸:《欧洲委员会〈人工智能公约〉要旨及其启示》,载《中国审判》,2023年13期,第68—71页,这里第69—71页。

  [52]. 江海洋、魏书敏:《基于风险的通用人工智能监管——从欧盟〈人工智能法案〉视角展开》,载《科技与法律》,2024年第2期,第88—97页,这里第90—91页。

  [70]. 沈伟、苏可桢:《变局之下国际法与国内法互动的转向》,载《探索与争鸣》,2024年第4期,第96—106页,这里第99页。

  [72]. 姚旭、张傲:《美欧英签署全球首个人工智能法律公约,AI监管“全球化”进程加快》。

  [75]. 郭梦迎、张薇薇:《欧盟人工智能发展与治理面临的机遇和挑战》,载《和平与发展》,2024年第5期,第50—76页,这里第58—60页。

  [76]. 李学尧:《人工智能伦理的法律性质》,载《中外法学》,2024年第4期,第884—898页,这里第886页。

  [78]. 苏可桢、沈伟:《欧盟人工智能治理方案会产生“布鲁塞尔效应”吗?——基于欧盟〈人工智能法〉的分析》,第83—84页。

  [82]. 赵骏、李婉贞:《人工智能对国际法的挑战及其应对》,载《浙江大学学报(人文社会科学版) 》,2020年第2期,第10—25页,这里第10—19页。

  [84]. 沈伟、赵尔雅:《数字经济背景下的人工智能国际法规制》,第133页;李猛:《人类命运共同体视角下人工智能风险全球治理的国际法规制路径探究》,载《宁夏社会科学》,2024年第2期,第112—124页,这里第116页。

  [87]. 安峥:《美英欧盟等签署首个具法律约束力的国际AI公约,为何有欧洲专家“失望”?》。

  [90]. 《全球数字契约》第8条涵盖的13项技术治理基本原则分别是:1.包容性;2.以发展为导向;3.立足于国际法,促进、保障人权;4.性别平等、尊重;5.可持续性;6.公平和非歧视性;7.可及和可负担性;8.互操作性和治理兼容;9.全生命周期的创新安全、责任承担和可责性;10.创新和竞争;11.多元主体治理;12.为发展中国家提供执行资源;13.前瞻性和预测机制,以应对风险和挑战。

  [92]. 沈伟:《国际经济治理体系的正当性:内涵、危机及反思》,载《郑州大学学报(哲学社会科学版) 》,2024年第5期,第25—26页。

  [94]. 在《AI公约》的序言、全部36个正文条文及最后条款中,“人权、民主和法治”(Human Rights, Democracy and the Rule of Law) 表述出现在序言、第1条“目标和宗旨”、第3条“范围”、第9条“可责性和责任承担”、第13条“安全创新”、第16条“风险和影响管理框架”和第25条“国际合作”等部分。

  [98]. 并非所有发展中国家都未签署《AI公约》。例如,黑山就是发展中国家,但也作为欧洲委员会成员国参与缔约。

  [104]. 方兴东、钟祥铭、谢永琪:《“布鲁塞尔效应”与中国数字治理的制度创新——中美欧竞合博弈的建构主义解读》,载《传媒观察》,2024年第3期,第33—44页,这里第40—41页。

  [106]. 郭梦迎、张薇薇:《欧盟人工智能发展与治理面临的机遇和挑战》,第61、62、69页。

  [108]. 苏可桢、沈伟:《美国“价值观同盟”视角下的经贸规则全球异化与中国因应》,载《亚太经济》,2023年第3期,第13—21页,这里第13—15页。

  [109]. 沈伟、胡耀辉:《美式小多边主义与美国重塑全球经贸体系》,第4—8页。

  [112]. 赵泽睿:《人工智能立法的沟通认知模型与程序治理思路》,上海交通大学中国法与社会研究院,2025—01—13, 访问日期:2025—02—06。

  [114]. 张磊:《人工智能国际规则博弈态势、共识分歧与中国“话语势能”建构》,载《新疆社会科学》,2024年第4期,第119—133页,这里第119、133页。

  [115]. 《2024年7月1日大会决议 78/311.加强人工智能能力建设方面的国际合作》,联合国大会,2024—07—01, 访问日期:2025—02—05。

  [120]. 该计划的10项中国行动分别是:1.开展人工智能领域南北合作、南南合作和三方合作;2.开展人工智能模型研发和赋能合作等产供链国际合作;3.同各国尤其是发展中国家共同助力全球气候治理和可持续发展;4.搭建人工智能能力建设国际合作平台;5.同发展中国家共享人工智能教育资源;6.同发展中国家共同加强人力资源援助合作;7.同各国特别是发展中国家共同培育公众人工智能素养;8.同各国特别是发展中国家共同开展人工智能语料库建设;9.同各国特别是发展中国家共同促进和完善数据基础设施;10.同各国特别是发展中国家共同应对人工智能风险。

  [125]. 包括2020年美国国防部设立的联合人工智能中心、美国总务管理局设立的人工智能卓越中心、美国能源部设立的人工智能和技术办公室、2021年OSTP设立的国家人工智能研究资源工作组等。参见董汀、黄智尧:《人工智能国际治理与“不确定性”》,清华大学战略与安全研究中心,2023—12—14, 访问日期:2025—02—06。

  [127]. 佐伊·克莱曼、丽芙·麦克马洪:《巴黎AI峰会:英国和美国拒绝签署全球AI声明》,BBC中文网,2025—02—12, 访问日期:2025—03—06。

搜索