欢迎来到亿配芯城! | 免费注册
你的位置:SST(冠捷半导体)存储器IC闪存芯片全系列-亿配芯城 > 芯片资讯 > AI治理,从分散走向协同?
AI治理,从分散走向协同?
发布日期:2024-01-11 13:03     点击次数:100

作者:陈佳慧   

摘要:在大国技术竞争和人工智能AI)风险认知加剧的背景下,英国于2023年11月召开首届人工智能安全峰会。会上,中国与美国、英国、欧盟等共同签署了《布莱切利宣言》(Bletchley Declaration),就全球人工智能治理合作达成初步共识。同月,国家主席习近平与美国总统拜登在旧金山峰会中,宣布就人工智能治理开展政府间对话。全球人工智能治理合作出现积极势头。

然而,由于各国治理模式差异和大国博弈,现阶段的全球人工智能治理面临着“风险全球化与治理分散化”的显著矛盾——欧美国家意图主导全球人工智能治理,但欧盟、英国、美国的模式和进程有所不同;中国已在监管法规方面取得先发优势,但广大发展中国家在全球治理中仍处边缘地位。

包括联合国在内的国际组织、产学界等利益相关方,也在积极推动建立全球治理框架。在动态博弈过程中,不同治理模式间出现了影响力范围重合、具体实践趋同的积极态势,也预示了合作的可能性。

鉴于此,中国可以在基于联合国框架的多边人工智能治理模式中发挥关键作用。中国可以通过推动中美在人工智能治理领域的双轨合作、借势欧盟推动不同治理模式的接洽、发挥设立国际人工智能治理机构的“中心协调作用”等行动来推动全球人工智能治理合作。

01全球人工智能治理面临挑战

2023年3月以来,一系列人工智能大模型的发布加剧了全球对人工智能的风险认知,客观上促进了国际合作共识的形成。然而,目前全球人工智能治理呈现出风险全球化、治理分散化、国际组织协调不足等特点。总体而言,具有实质意义的全球人工智能治理框架尚未搭建。

第一,人工智能技术及其风险有全球化的特性。

人工智能技术发展三大关键要素——信息数据是跨境流动的,算力基础设施已嵌入全球产业链,关键算法也离不开全球知识网络的支撑。

此外,人工智能技术的风险是跨国且不确定的。这种风险包括两类:第一类为与人工智能的开发和应用相关的直接风险——如技术滥用、结构性失业;

第二类为人工智能发展导致的结构性风险——如人工智能挑战人类主体地位、颠覆现有国际体系。这些新旧叠加的风险,无法通过单一国家,也无法通过现有治理结构来解决。

第二,不同国家的治理模式存在较大差异。

目前,各国的人工智能治理进程大多已超越早期的伦理原则探讨阶段,进入了制定实质性政策的时期,进而形成了“模式多元、治理分散”的多层次治理格局。

由于各国在传统社会治理模式、科技实力、文化背景上的差异,对于“如何治理”这一问题,各国在具体模式上的分歧长期存在。在国家政府层面,全球已形成以中国、美国、欧盟为代表的三大主要模式,不同模式各有侧重,也有共通之处。

第三,国际组织协调力不足。

在国际协调层面,包括联合国、七国集团(G7)、二十国集团(G20)在内的政府间多边及双边机制已成为人工智能治理的重要平台。此外,其他非政府的多边交流平台、行业自治网络和技术专业组织,都就人工智能的伦理准则和具体监管机制进行探索和合作。

在科技竞赛加剧、各国监管格局分散的客观现实下,由于不同组织和机制间的协调不足,国际组织和机制在调和各国利益、促进国际合作方面进度迟缓。如何加强不同治理模式和体系间的国际协调,已成为全球AI治理的关键。

02全球人工智能治理的多元模式与积极趋势

各国在塑造人工智能监管框架方面的努力,推动了早期全球人工智能治理格局的形成。由于传统社会治理模式、科技实力以及文化背景存在差异,各国在全球人工智能治理模式上缺乏足够的共识。

目前,中国、美国、欧盟的模式具有代表性,其他国家也在推动监管框架方面积极行动。同时,以联合国为代表的多边机构积极促进全球合作,并寻求建立全球性的人工智能治理机构。

欧美国家:意图领导规则制定权

欧美国家意图领导全球人工智能治理规则制定权,但各自的监管进程和模式也各有差异。

欧盟:长期坚持强监管路径,巩固社会基础。

欧盟通过反垄断法案、数据保护法案及其他监管工具,来保证对AI技术的管控。目前,引起最广泛关注的监管措施是欧盟的《人工智能法案》(AI Act)。该法案将为欧盟引入一个共同的、有约束性的AI监管法律框架。如通过,该法案将是首个区域性人工智能监管综合立法。

此外,欧盟也积极将模式推广至其他国家,以争夺全球人工智能规则制定权。预计,该法案将借由“布鲁塞尔效应”,即欧盟借助其市场力量塑造国际市场规范的能力,推动企业积极游说,促使其他国家的监管规则与之趋同,以此强化其在人工智能治理中的引领优势。

英国:采取促进创新的原则性监管路径。

2023年3月,英国创新科技部发布人工智能监管白皮书,确立了以“促进创新”为监管的基础原则,避免可能扼制创新的立法。英国确立了应对人工智能风险时的跨部门监管原则,但尚未制定新的法律或设立单独的监管机构。具体监管准则、如何实施原则等细则,仍待填充。英国预计于白皮书发布的一年内,完善系列方案构想。

不同于欧盟,在监管的谨慎姿态上,英国的与美国更为接近。

美国:倾向于行业自治、审慎监管,但科技企业自我监管为主的现状或有转变。

历史上,美国倾向于行业自律和事后问责,因此在技术前景尚未明朗时,政府在加强监管方面更为谨慎。同时,美国科技巨头引领全球技术创新进程,谨慎姿态可以避免监管措施削弱其科技企业在全球市场的地位。此举也与各科技企业自我监管、减少外部干预的诉求相匹配。

但是,随着人工智能治理的社会关注度和国际监管的竞争态势上升,美国可能会采取更多实质性行动。拜登政府于2023年10月签署一项行政命令,要求公司对联邦政府进行风险汇报,并宣布针对人工智能安全采取“迄今为止最强有力的全球行动”。 

美国式治理的特征为:行政命令范围广泛,同时更多为原则性阐述,更关注其在全球人工智能治理规则制定中的领导角色。

中国及发展中国家:影响力逐渐上升

中国率先出台国内人工智能监管法规,广泛的发展中国家在国际人工智能治理中仍处边缘,但影响力逐步上升。

中国在人工智能监管立法层面具有先发优势。目前,中国已出台一系列治理原则和具体法规,不断完善治理体系,发展负责任的人工智能。2023年出台的《生成式人工智能服务管理暂行办法》(《暂行办法》)是全球首部针对生成式人工智能的法规。

《暂行办法》确定了“发展”的基调,减少限制性举措,并在技术开发的透明度和准确性、权益保护方面,确立了可操作的监管标准。此外,更全面完备的《人工智能法》也已进入立法规划进程。

在全球治理层面,中国于2023年10月份提出《全球人工智能治理倡议》。倡议以合作和发展为基调,强调全球人工智能发展中的平等问题,主张弥合技术和治理能力差距、支持联合国框架下的人工智能治理合作。

广大的发展中国家可能陷入后发劣势。由于技术实力和权力不对称,技术发展的后发国家难以构建“技术自主”能力。在西方发达国家主导的相关人工智能政府间协调机制或倡议中,广大的亚非拉发展中国家长期处于被动和边缘地位。

目前,包括中国在内的国家,国际组织和相关倡议,也增加对广大发展中国家在人工智能技术发展的人员培训、基础设施、治理经验等方面的支持。发展中国家内部也进行了初步的合作尝试。

如非洲联盟早在2019年就将人工智能纳入合作议程,其主导的泛非洲人工智能战略,旨在推动非洲大陆国家技术能力建设和风险应对能力。

对广大发展中国家而言,“发展”是现阶段及未来全球AI治理合作的关键议题。

多边机构:积极行动但缺乏约束力

以联合国为代表的多边机构积极促进全球合作,并寻求新人工智能治理机构的建立。

就全球人工智能治理的领导力量而言,现阶段主要的多边合作机制及倡议,仍由欧美发达国家的政府、科技巨头和非政府组织牵头。非盟、东盟、金砖国家组织和拉美国家,都在尝试创立多边人工智能合作框架。从治理合作的形式来看,多边框架下的人工智能治理合作, 芯片采购平台多为在现有的多边组织架构下融入相关议程,或专设人工智能多边倡议。

论参与方包容性以及议程广度,联合国仍是全球治理中最有代表性的机构。近期,联合国推动组建了联合国框架内的专门人工智能治理实体,以建立和管理国际协商和监管的治理机制。2023年10月,联合国秘书长古特雷斯宣布组建联合国高级别人工智能咨询机构(High Level Advisory Body on AI),与各国政府、技术人员、专家学者探讨全球人工智能治理的关键问题和方案建议,该机构将为联合国框架下人工智能管理机构的形式和功能奠定基础。[6]

但是,从合作产出来看,联合国在现阶段更多作为规范引领及建言献策的“咨询顾问”角色。除非中美欧等国形成合力,否则难以形成真正有约束力的全球人工治理合作框架。

全球治理的积极态势

随着治理实践的推进,针对人工智能的不同治理模式之间出现了影响力范围重合、具体实践趋同的趋势,预示了全球进一步合作的可能性。

第一,分散的人工智能治理机制在相互链接的过程中,也出现成员范围、合作内容的重叠。

治理模式的影响力外溢是技术发展和市场演变的客观进程,但也有权力博弈的主动结果。一方面,更多发展中国家也将参与到全球人工智能治理的各项机制中。中国长期关注技术普惠性发展,在国际机制层面也倾向于能广泛包容发展中国家参与其中的多边机制。近期,欧美国家也更关注发展中国家的技术鸿沟问题。

英国人工智能安全峰会也加强对非洲国家的人工智能技术发展援助,帮助更广泛的国家确立治理规范。同年10月,G7“广岛人工智能进程”联合声明呼吁G7、GPAI、经合组织,开展与发展中国家和新兴经济体的合作。

另一方面,具体实践为超越意识形态的务实合作创造了动力。美国一度联同“志同道合”的国家,通过科技战和意识形态切割,初步打造了以 “制华”为基础的治理合作机制。但是,在应对全球风险的迫切需求下,美国曾经主推的“自由民主”与“数字威权”二分框架已被贬低。例如,基于意识形态价值观创立的GPAI,已不断加强与其他人工智能治理主体和治理机制的对接,开始吸收印度、土耳其和埃及等更多国家作为成员国。

第二,不同监管理念和实践相互借鉴、趋同,科技企业成为重要推动力。

在典型治理领域(如伦理准则、个人权利保护、军事应用)的AI技术应用,现有的多边合作机制(尤其是联合国的相关专门机构)已可供各国就这一新兴议题达成部分合作、增进共识。

在新兴治理领域(如AI系统或算法透明度等问题),也出现各国监管措施上的相互借鉴。如AI系统或算法分类分级,成为框架构建的新方向。目前,中国、美国、欧盟等主要国家均已提出对人工智能系统或算法分类分级管理的要求。

各国人工智能治理也都呈现“软法”与“硬法”并重的特征。[8]AI Index对127个国家立法记录的分析显示,包含“AI”的法案被通过成为法律的数量从2016年的1个增加到2022年的37个。

最后,不容忽视的是,为了降低企业跨国经营的合规性成本,科技企业也将游说推动各国适当监管、并且实现规则对接。科技企业将是全球治理实践趋同的重要力量。

03全球人工智能治理前景

如上所述,全球治理模式虽有竞争,但在治理的具体实践中已出现功能和内容的重合。然而,全球人工智能治理从碎片化走向集中还欠缺动能——目前尚未形成一个全球包容、广纳多利益相关方、专门的、更具影响力的全球人工智能治理机构,该机构可以为治理体系搭建的具体进程提供动力。

联合国框架下的多边主义合作,是全球人工智能治理的可行路径。中国在《全球人工智能治理倡议》也已明确提出要“积极支持在联合国框架下讨论成立国际人工智能治理机构”。

其他国家以及产学界对此路径也进行了初步探讨。联合国框架下的气候治理和核安全治理的成功经验,也可以为人工智能治理合作提供参考。

如前所述,目前的联合国高级别人工智能咨询机构虽已建立,但以科学研究和智力支持为主。就此而言,联合国仍难以成为国际人工智能治理的实质性机构。要将联合国框架下的全球人工智能治理机构作为全球治理主体、并启动治理体系搭建的具体进程,至少需要具备以下条件:

技术与政治的适当平衡:

政府间气候变化专门委员会(IPCC)是全球气候治理的核心机构,国际原子能机构(IAEA)是全球核安全治理的治理主体,都依赖科学和技术专家团体,并在政治上相对独立。IAEA还被各国授予在核安全和核不扩散方面有限的监督执法能力。

同理,在人工智能治理领域,技术中立有助于增进全球政策制定者与各利益相关方之间的风险共识,为全球标准的制定提供智力支持;适当的“规范治理权”,可以促进各方遵守全球标准,也鼓励更广泛国家在尊重主权安全的基础上参与全球合作。

弥合分散体系的桥梁:

IPCC和IAEA都将广泛的利益相关者也纳入合作进程,弥合多元观点,并有时与利益相关方合作,共同实施项目。该国际人工智能治理机构应能促进不同国家之间、以及相关组织机构之间的交流、协调和合作,成为分散的全球治理网络的中心,确保全球范围内达成统一标准。

具有约束力的全球法规:

全球法规与治理机构互为补充。全球气候治理合作基于《联合国气候变化框架公约》(《公约》)奠定的法律基础,IPCC为《公约》的完善提供了关键智力支持;全球核安全治理的成效也基于《不扩散核武器条约》等国际条约,IAEA受各缔约国所托,承担条约的重要职责和义务。

因此,在国际人工智能治理机构设立后,第二阶段目标应是制定具有约束力的全球法规。一方面,可以确保各类人工智能的开发和应用符合国际伦理和标准;另一方面,可以成为技术和政治分歧解决方法之一,并加强该机构的主体地位。

创新与风控的双重使命:

IAEA承担着“双重使命”——阻止核武器制造的同时,继续分享知识和技术——这与人工智能治理领域“创新推广与风险管控”的双重逻辑一致。国际人工智能治理机构也要承担“技术协调员”和“义务监督员”的双重角色。尤其在技术协调方面,可以通过设立技术援助与能力建设的相关部门,协调或补充现有的人工智能技术和治理援助项目。通过帮助发展中国家融入全球治理体系,该机构将增强全球在应对人工智能风险时的整体能力。

广泛主体的包容合作:

任何全球治理中,都需要大国的领导力、多国的协作以及广泛的利益相关方的贡献,缺一不可。尤其在全球人工智能治理中,中美为首的大国在尖端技术发展、政策制定和国际标准的建立方面扮演着关键角色。中国、美国、欧盟是重要的战略领导力量,大国间的政策和政治分歧是否有效协调,是否能为建立新的全球机构创造机会,是全球治理合作的关键。

04中国推动全球人工智能治理进程的行动

中国积极推进全球人工智能治理合作是现实所需。同样,中国可以以人工智能治理合作为抓手,开拓中美合作的新领域,促进国际系统的稳定。为更好延续中美元首旧金山会晤的积极势头、推进全球人工智能治理合作进程,可以考虑采取如下措施:

第一,推进中美人工智能领域的“双轨”合作。

在开发最为复杂的人工智能模型方面,只有中美两国具备所需的专业人才、研究机构以及大规模的计算能力。 

美国在人工智能领域技术优势显著,但在监管方面相对滞后;中国人工智能技术发展则处相对后发地位,但监管立法更加完善——在此情况下,中美在治理层面达成合作共识面对重要机遇期。

在落实旧金山首脑峰会成果、积极促进 “一轨”对话、形成高层共识的同时,双方应同步推进 “二轨”对话,加强研究合作,为落实高层共识提供政策方案。

第二,借势欧盟推动不同治理模式的接洽。

欧盟在人工智能技术发展领域较中美缺乏优势。但欧盟在人工智能领域的 “规范性力量”不容忽视。就治理模式而言,美欧之间的监管模式趋同,但理念和利益存有差异。中国与欧盟倾向于立法的强监管模式更相近。三方并非不可协调。

欧盟将继续在全球人工智能治理领域发挥引领和平衡角色。中国应借势与欧盟在中欧数字领域高层对话中,就加强双方人工智能安全研究机构合作、对接技术规则、借鉴治理经验展开积极协商。

第三,发挥设立国际人工智能治理机构的“中心协调作用”。

中国应继续深度参与联合国主导的多边治理实践。在加强中美、中欧对话的同时,也要促进中、美、欧盟各国在组建联合国框架下的人工智能治理机构方面达成初步共识。

中国可以采取更切实行动,主动提出动议、或者与美国、欧盟提出联合动议,积极支持建立联合国框架下的国际人工智能治理机构,向国际社会展示合作意愿和能力。

审核编辑:黄飞

阅读全文

相关资讯