全球人工智能治理的目标、挑战与中国方案
作者: 鲁传颖【关键词】人工智能治理 全球秩序 机制复合体 中国方案
2023年7月,联合国秘书长古特雷斯呼吁成立实体机构负责人工智能安全治理,并召集成立“人工智能高级别咨询委员会”进行探讨,拉开了全球人工智能治理的序幕。2023年2月和11月,荷兰与英国分别举办了全球性的人工智能峰会,发布了《军事领域负责任使用人工智能行动倡议》和《布莱切利宣言》。2023年10月,中国国家主席习近平在第三届“一带一路”国际合作高峰论坛开幕式上的主旨演讲中提出《全球人工智能治理倡议》,向国际社会展示中国在人工智能治理方面的政策主张。此外,联合国互联网治理论坛、世界经济论坛等国际组织也陆续提出有关全球人工智能治理的倡议。据不完全统计,目前全球关于人工智能的倡议已有50多个,这标志着全球人工智能治理进入了全面发展的新阶段。
开启全球人工智能治理的新篇章
全球人工智能治理是指国家、市场和技术社群等行为体为实现人工智能在全球的安全发展与和平利用而共同制定和落实一系列原则、规范和制度的过程。人工智能作为一项战略性技术,具有改变全球格局和人类发展进程的潜力。其中,人工智能技术发展与应用所涉及的广泛行为体和行业领域远远超出了常规技术,是最复杂也是影响力最大的战略技术。正因为人工智能涉及议题领域广泛、行为体众多,如果缺乏规则和秩序,各方在伦理、规范和安全领域的很多分歧都难以解决,必将导致更多的冲突。可以说,较之于核武器与网络安全,人工智能治理对于国际体系的安全与发展具有更重要的战略性和全局性意义。当前,全球人工智能治理进程正在不断加速,并且形成了复合型的机制建构路径。
首先,安全发展与和平利用已经成为全球人工智能治理的新秩序。开展全球人工智能治理,需要在已有的治理实践之上进一步明确人工智能治理的秩序和制度体系。目前,人工智能可以参考的治理秩序主要有二:一个是在核武器领域成功构建的以“战略稳定”为基础的秩序,另一个是在网络安全领域以“负责任国家行为准则”为目标但却未能实现的秩序构建。“战略稳定”为核大国提供了制定核政策、应对危机及军备竞赛的秩序框架,而“负责任国家行为准则”则由于未能有效减少各国在网络安全上面临的挑战和冲突而举步维艰。导致这一结果的主要原因在于各方对网络安全秩序的目标和制度体系设计没有达成共识。人工智能的战略性、全局性较核武器和网络安全有过之无不及,因此对建立共同遵守的规范和秩序的需求也更高。
人工智能全球秩序的内涵就是安全发展与和平利用。就技术本身而言,构成人工智能的模型、算法、数据具有较大的安全隐患,存在着“黑箱操作”和“失控”风险。人工智能的安全风险一部分源自算法自身的“黑箱”,开发者缺乏对人工智能决策机制的理解;另一部分是由于人类对于人工智能能力的理解不足,存在滥用风险。如果不加预防,一旦出错便可能产生灾难性影响。因此,如何确保人工智能的安全使用至关重要,任何人工智能技术的发展也都应当以安全为前提。国际社会应当对此形成共识,共同推动人工智能安全发展。

从技术应用角度看,人工智能在军事与情报领域具有巨大的发展潜力,但也带来极大的潜在风险。倘若人工智能在战场上被滥用,将有可能造成无法挽回的损失。例如,利用人工智能武器对核武器装置发起攻击很可能会打破“战略稳定”,而核武器装置采用的人工智能控制系统本身也可能存在不可控的风险。因此,禁止人工智能武器化的呼声在国际社会得到广泛支持。为此,应当明确在冲突中应用人工智能的目的是为了和平而非战争。此外,人工智能作为一项战略性技术已经成为世界主要军事大国竞相争夺的新战略制高点。一些国家在人工智能军备方面投入大量资金,用于情报、监视和侦察(ISR),保障网络安全,指挥和控制各种半自动和自动驾驶车辆以及提高日常工作效率,包括后勤、招聘、绩效、维护等。将和平利用人工智能作为前提可有效地避免其过度军事化,管控人工智能驱动的军备竞赛。
其次,机制复合体建构成为全球人工智能治理的实现路径。全球人工智能的治理机制对于管控分歧、寻求共识、实现治理目标至关重要。不同于原则性的秩序,基于解决某一类问题而专门设计的治理机制更加具体也更具约束性。人工智能作为通用型技术,其涉及的治理领域极为广泛,需要有一系列松散耦合的机制来共同形成全球治理机制复合体。每一个治理机制都有明确的议题、参与行为体、互动模式。全球关于人工智能治理的倡议、规范和机制已经超过50个,其治理实践涉及普适性的道德和伦理、国家行为规则、技术标准、行业应用实践等多个层面,覆盖国际组织、各国政府、私营部门、技术社群和公民团体等多个层次的参与主体。
从议题角度来看,当前人工智能治理主要关注伦理、规范和安全三个领域。人工智能发展与治理始终是相伴相随的,人工智能治理是对技术和应用所带来问题和挑战的回应,随着技术进步和应用突破,治理的议题在不断拓展,能力也应不断提升。早期人工智能治理关注伦理问题,主要是机器与人之间的关系,提出了保持人对机器的控制这一理念。随着无人机等军事人工智能应用的突破,规范成为治理的焦点。负责任地使用军事人工智能不仅涉及如何将已有的国际规范落实到军事人工智能领域,也包括如何构建新的规范来进一步约束不负责任地使用军事人工智能的行为。随着大语言模型的突破,针对模型、算法和数据的安全治理成为新的重大议题。
这些不同治理机制之间虽然目标不同,但鉴于人工智能的战略性和全局性,“各自为政”的治理模式有可能带来更多冲突,不利于解决问题。例如,由于人工智能的军民两用性,在安全治理中被视为合理要求的信息共享,有可能成为军事人工智能领域的国家安全风险。统筹不同机制之间的关系有助于行为体在参与人工智能全球治理的进程中,作出相对理性、全面的决策。此外,人工智能各个治理机制之间的关联程度要比其他治理领域更高。由于人工智能技术在不同议题上都扮演了重要角色,因此,其作为一根主线贯穿在全球人工智能治理机制复合体之中,具体体现在不同议题之间的关联度以及行为体之间的互动模式上。这使得人工智能的治理理念、模式需要作出相应的调整。例如,更加突出多利益攸关方的治理作用,要解决技术上的问题就离不开企业和技术社群的参与。
全球人工智能治理面临的挑战
全球人工智能治理作为一项新兴议题面临双重挑战,即人工智能安全发展与和平利用的秩序面临地缘政治的干扰,机制复合体的治理路径面临政治、市场、技术三种治理逻辑之间的冲突。这些挑战折射出参与治理的主体对人工智能安全、发展和利用过程中不同的价值判断、路径偏好以及利益设定。
一方面,地缘政治因素制约人工智能全球秩序的构建。全球治理与地缘政治之间是一对矛盾。全球治理寻求对议题的共同理解和治理过程的共同参与,地缘政治的目标是民族国家权力的扩张,背后受到地理环境、意识形态以及军事、经济和科技实力等因素的影响。[1]全球治理的目标是建立共同遵守的秩序,地缘政治的目标则是获得国家战略收益。[2]因此,全球人工智能治理能否取得成功,一定程度上取决于能否克服地缘政治博弈所带来的挑战。
地缘政治冲突首先体现在由谁来主导规则制定平台。联合国作为全球人工智能治理主渠道遇到了美国主导的所谓“理念一致国家同盟”的挑战。美国和一些西方国家从地缘政治的角度出发,认为随着以中国为代表的新兴市场国家在联合国中的影响力大增,联合国已经不能反映西方的意愿和关切。因此,他们更加倾向于将传统网络治理中大力推行的所谓“理念一致国家联盟”运用到人工智能治理上,坚持以意识形态划线,塑造战略竞争对手,打造人工智能治理“小圈子”,并加强在军事人工智能领域的互操作性。[3]例如,美国推动下的全球人工智能合作伙伴(GPAI)、七国集团(G7)“广岛人工智能进程”等机制将西式“人权”“自由”“民主”等价值理念作为“负责任的人工智能”的参考标准,美英澳三边安全伙伴关系(AUKUS)更是在加快推动人工智能军事运用的互操作性。这类排他性和安全性的联盟正在加剧全球人工智能治理安全化和军事化。
以中国为代表的新兴市场国家和发展中国家认为,维护联合国的合法性和权威性是领导全球人工智能治理的先决条件。从联合国的角度来看,如果不能在人工智能这样的关键领域发挥重要作用,未来联合国在国际上的影响力和权威性会进一步丧失。2018年以来,联合国相继成立数字合作高级别小组、发布“数字合作路线图”、创办人工智能高级别咨询委员会,倡导开发“可信赖、基于人权、安全和可持续并促进和平”的人工智能。联合国下属机构也将人工智能视为实现可持续发展目标的工具,发布了各项人工智能治理倡议。联合国秘书长古特雷斯于2023年7月提出的“新和平纲领”政策报告,明确阐述了联合国引领的“基于多边”“弥合鸿沟”“平等参与”的人工智能治理原则。
此外,人工智能领域的实力地位影响了国家对待人工智能的治理态度。在规则的宽严度上,以美国为首的部分西方国家倾向于制定非约束性的规范治理,实力较弱的国家希望制定具有法律约束力的规则。这两者的差异在于,强国更加希望利用非约束性的规范空间来实现多元的战略目标。弱国目标相对单一,希望通过规则来约束各方的行为从而获取国际安全保障。特别是在军事人工智能等关键议题上,强国和弱国的诉求差异更加明显。强国希望在保持人工智能发展的同时,也获得安全方面的战略优势;弱国缺乏军事实力,更希望禁止人工智能军事化应用。
另一方面,全球人工智能治理机制复合体实现路径始终面临复杂的政治、市场、技术逻辑之间的分歧,并且已经贯穿在伦理、安全和技术治理的每一个层面。政治介入的合法性在于人工智能的安全失灵隐患需要政府来加强监管。由于人工智能是一项资金密集型高端技术,市场和技术在推动人工智能产业发展的过程中发挥着极为重要的作用。理想中的全球人工智能治理机制复合体需要国家与市场、技术等方面参与治理行为体明晰彼此的界限,并从各自的角度为治理提供解决方案。实际上,国家和市场、技术之间的界限模糊,并且存在着复杂的利益关系,使得全球人工智能治理体系难以形成统一的机制复合体。[4]
国家行为体与非国家行为体在治理中的边界模糊,对治理的关注点也不尽相同。政府部门普遍关注人工智能相关的高政治领域,市场和技术行为体则更加关注技术、标准开发过程中的治理。政治视角与市场和技术视角之间不仅关注的议题领域不同,也暗含着复杂的博弈关系。政府更加关注军事、安全风险,将自己凌驾于市场和技术之上。例如,美国发布《关于负责任地军事使用人工智能和自主技术的政治宣言》、英国召开首届人工智能安全峰会,都体现了政府对人工智能引发军事安全风险的担忧。不仅如此,国家行为体还强调自身的监管作用,通过立法和制定战略来赋予自身领导权。以欧盟为例,其发布《人工智能政策》《人工智能白皮书:通往卓越与信任的欧洲之路》《人工智能公约》等政策文件,以确保人工智能的设计、部署和使用都符合欧洲委员会关于人权、民主和法治的标准。2024年3月通过的欧盟《人工智能法案》成为世界上首部全面监管人工智能的法律,致力于构建具有强约束力的人工智能监管框架,引领全球人工智能治理进程。

在市场和技术视角看来,人工智能技术复杂,迭代速度极快,政府在一定程度上离技术较远,因而其干预并不符合技术发展的逻辑,在很大程度上会阻碍技术发展。企业和市场在人工智能全球治理中应当扮演更加重要的角色。目前,微软、OpenAI、Anthropic、阿里巴巴、腾讯、百度等人工智能领域领先企业纷纷发布了全球人工智能治理相关倡议。这些倡议认为,技术开发环节的治理是确保人工智能安全的关键,强调算法和模型的透明度和负责任的研发、人工智能在价值上与人类对齐等。不仅如此,市场和技术代表还组成联盟共同参与全球治理进程。如由苹果、亚马逊、DeepMind、谷歌、脸书等科技公司成立的人工智能伙伴关系(PAI),积极支持与人工智能伦理和治理相关的紧迫问题研究,促进教育项目和实用工具的开发,建立人工智能事件数据库等。市场和技术在全球治理层面的积极投入是为了在技术发展过程中追求更为宽松的监管环境,通过自愿承诺或标准制定等进行自我监督。市场和技术的主动作为是企业责任的一部分,但客观上也分散了政府的权力。总体而言,随着技术与市场在人工智能全球治理中的作用与影响不断增加,政治、市场与技术三者之间的博弈也会愈加激烈。