人工智能武器化,全球治理的重要议题

作者: 杨美姣

人工智能武器化是当前全球治理进程中的重要议题之一,不仅关乎国际和平与安全,也深刻影响着人类尊严和全球战略稳定。人工智能武器化是指将人工智能技术运用到武器系统中,使其具备自主识别、校准、决策、行动等能力的过程。虽然美国国会研究服务报告曾对人工智能赋能武器与人工智能武器进行了区分,认为前者指受到人类控制的武器,可使人类指挥的战争更精准有效,后者指能脱离人类控制并自主决策的武器,但人工智能武器装备的自主性早已模糊了人类控制的边界。联合国秘书长古特雷斯在2025年2月举行的巴黎人工智能行动峰会上指出,“人工智能能力的集中甚至可能加剧全球地缘政治分歧,形成‘有’与‘无’的两极世界。”随着人工智能武器化的推进,全球安全体系面临着前所未有的挑战。

人工智能武器化引发新军事变革

就目前来看,人工智能武器化的发展主要体现在以下三个方面。

引发新军事变革,改变战争形态。人工智能在军事领域的研发和运用推进了以信息数据算法、自主决策和无人系统为特征的智能化战争,使得常规战争中的军种对抗从有组织对抗发展成了自组织体系对抗,传统人机交互中“人”的战况评估、组织计划、指挥决策等作用被算法取代,引发新的军事变革。人工智能、无人系统与传统武器系统的结合,使得军队能够实现多维度、高效能的作战能力。

加速全球竞“智”,刺激军备竞赛。人工智能武器化,使得各国争先抢占人工智能赋能的竞赛空间。美国推出人工智能为关键技术支撑、“改变未来战局”的颠覆性技术的第三次“抵消战略”,以确保美国在大国军事竞争中占据绝对优势。俄罗斯成立专门的人工智能武器研究小组,以人工智能促进新武器装备的研发。日本设立“人工智能战略会议”机构,日本自卫队在2024财年新设统一指挥陆海空各自卫队和网络部队等的常设机构,以及“防卫创新技术研究所”,用于研发改变战斗方式的新型装备。

促进武器自主性增强,导致技术扩张失序。20世纪中后期,遥控和无人系统的出现,扩充了自动化武器,这些早期系统的主要任务用于侦察和监视。21世纪初至2010年代,武器自主能力提升,人工智能与武器技术融合导致全球出现更多半自主武器。2010年代至今,一些军事强国开始探索和试验全自主武器系统。目前,全球对于人工智能武器化尚无广泛认同的禁令,难以对人工智能武器扩张和运用形成有效控制。

人工智能武器化带来诸多挑战

一是冲击了地缘政治稳定和安全局势。当前,全球争夺人工智能战略优势的竞赛已经展开。人工智能武器自身的发展,及其能够增强常规武器和网络能力的性能,一方面使冲突爆发的门槛更低,模糊了战争边界;另一方面也将使对手间的安全关系更难以预测和维护,国家之间会相互担心彼此的武器升级而感到更不安全,加剧安全困境。

二是引发法律和伦理困境。人工智能武器是人工智能武器化进程中的必然产物,目前,全球尚未就人工智能武器研发与使用的监管,达成具有法律约束力的协议,因此人工智能武器化带来了诸多法律和伦理方面的挑战。例如,人工智能武器造成的伤害难以进行权责划分;国际社会对其“有意义的人类控制”态度不同,难以对人工智能武器的监管达成国际共识。此外,人工智能武器的自主性也对传统理性和信仰带来了挑战。

三是导致该领域的全球治理碎片化。当前,由于国际社会尚未对人工智能军事化运用形成具有法律约束力的治理规范和框架,人工智能武器化的全球治理呈现碎片化态势。虽然第79届联合国大会“未来峰会”通过的《未来契约》及附件《全球数字契约》,包括了第一份真正具有普遍性的人工智能国际治理协议,为制定全球人工智能治理框架及应对滥用新技术的潜在风险提供了基础,但这份协议仍不具实际约束力,对管控人工智能武器化风险的效力有限。此外,尽管部分国家与主要地区已经开始努力建立监管人工智能的规则,如欧盟通过了《人工智能法案》、美国发布了《关于负责任地军事使用人工智能和自主技术的政治宣言》,中国先后提出《中国关于规范人工智能军事应用的立场文件》《中国关于加强人工智能伦理治理的立场文件》《全球人工智能治理倡议》,联合国大会通过了《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》,但这些努力仍属于碎片化的,未能形成全球合力。

人工智能武器化,全球治理的重要议题0
2025年2月21日,在乌克兰西部利沃夫地区,乌克兰军队接收Besomar 3210无人机系统。

搭建全球治理框架和集体安全机制

为了有效管控人工智能武器化引发的安全、法律、伦理、人道主义等风险,国际社会应加强合作,搭建全球治理框架和集体安全机制。目前《特定常规武器公约》平台是讨论人工智能武器化问题的重要平台,应充分尊重和利用此平台展开对话交流,凝聚更多国际共识。同时也可依托多边国际峰会,制定管控人工智能武器化的协议和公约,并逐步将更多国家吸纳进来。围绕人工智能武器的开发和使用问题,应明确“有意义的人类控制”在自主武器使用上的重要性。与此同时,还应对人工智能武器运用到战争的方式,进行合法性审查。可根据《日内瓦公约》及其两个附加议定书的相关规定,评估新技术各个流程及采用新武器的合法性,自主武器的研发和使用也可照此遵循。随着“主权人工智能”的兴起,各国政府逐渐成为人工智能治理的重心,政府可通过发挥自身优势,对内规范人工智能武器化的发展方向,对外加强国际交流与对话。

中国一贯主张,应有效管控人工智能引发的安全、法律、伦理、人道主义等风险,通过对话合作就如何规范人工智能的军事应用寻求共识,推动构建开放、公正、有效的安全治理机制,确保各国人工智能发展与治理的权利平等、机会平等、规则平等。正如习近平主席在二十国集团领导人第十九次峰会上所指出的:“加强人工智能国际治理和合作,确保人工智能向善、造福全人类。”

(作者为中国社科院世界经济与政治研究所助理研究员)

经典小说推荐

杂志订阅