人工智能军事应用面临的技术伦理困境
作者: 尹恒
人工智能自诞生之日起就引起人们无限的想象和憧憬,同时也伴随着巨大的伦理争议。在诸多成因中,人工智能技术的安全性问题引发的伦理争议尤为激烈。一方面,人工智能在增强人类应对和解决安全危害能力,提高安全控制水平方面将发挥重要作用;另一方面,受制于技术本身的特点和缺陷,拥有自主能力的人工智能则很有可能成为全新的安全威胁。相较于社会其它领域,人工智能在军事领域的应用起步较晚,但由于军事活动自身的特殊属性,人工智能一旦大面积应用到军事活动中,其内在缺陷引发的伦理风险必然呈现放大的趋势。在新一轮世界军事科技革命风起云涌的关键时期,对人工智能技术层面的局限性和不确定性进行分析,结合军事活动的实际特点进行合理推想,从而挖掘潜在的伦理风险,显得尤为紧迫而必要。
算法缺陷引发的伦理风险
算法安全通常是指由于算法本身不完善,使设计或实施过程中出现与预期不相符的安全性问题。如:由于设计者定义了错误的目标函数,或者选用了不合适的模型而引起安全问题;设计者没有充分考虑限制性条件,导致算法在运行过程中造成不良后果,引起的安全问题等。
人工智能发展到当前阶段,深度学习已成为掀起第三次人工智能浪潮的核心算法。通俗地讲,深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,通过模仿人脑的机制来解释数据,例如图像,声音和文本等信息。作为神经网络的3.0版本,深度学习算法相较于过去拥有更深的网络层级、更庞大的神经元结构、更广泛的神经元连接,加之大数据的支持和计算机处理能力上的飞跃,目前在无人驾驶、图片识别、机器翻译等众多领域已经取得了令人瞩目的成果,并且还保持着巨大的发展潜力。不过,深度学习算法也并不是完美无缺的,三类缺陷使得学界对于其发展和应用持审慎态度:一是算法的不透明性和运算过程的不可解释性。由于神经网络所获取的知识体现在神经元之间相互连接的权重值上,其网络架构的高度复杂性使得无论是设计者还是使用者都无法解析这些知识,致使在下达指令后,人们对于人工智能如何落实指令、通过什么样的方式完成任务还无从得知,这就带来不可解释的“黑盒”问题。二是算法潜藏的偏见和歧视。由于算法在本质上是“以数学方式或者计算机代码表达的意见”,设计者和开发者自身持有的偏见将不可避免地带入到算法的设计中,从而可能导致针对个别群体的歧视,引发严重的社会问题和伦理风险。三是神经网络的稳定性。环境的轻微改变和目标内容的适度伪装会影响神经网络的稳定性,从而使人工智能对目标的识别判断出现失误甚至无法识别。例如,如果对图像进行细微的修正,对人类而言,这种修正完全不会影响图像识别,但会导致神经网络错误地将其分类。

一旦人工智能在军事活动中开始大面积被使用,上述缺陷就会充分暴露出来,从而引发极为严重的安全问题和巨大的伦理争议。下面,将逐条分析三类缺陷在军事应用过程中可能引发的伦理风险:
对于第一类缺陷,目前学界并无统一的完成度高的解决方法。在这个前提下,各方认为,足够大的数据支持能够有效缓解“黑盒”问题引发的安全风险。神经网络中往往包含着众多的隐藏层,只有利用体量足够大、类型足够丰富的数据进行安全测试时,“激活”模型中各个部分,才能测试出更多的安全漏洞。在民用领域,这一设想不难实现,只需要不同测试场景下足够丰富的测试数据即可。但在军事领域,上述设想的实现难度将大大增加。训练和实战之间存在着巨大的反差,要想获得足够丰富可靠的训练数据,就需要使人工智能的应用场景尽可能地贴近实战。不过这也就带来了新的问题:人们是否能够允许“不够成熟”的人工智能离开实验室,进入训练场、演练场甚至战场?谁又对在这个进程中出现的意外伤害和附带损伤负责?困境显而易见:要想让人工智能军事应用变得更安全,就得在初始阶段承担更大的风险;若想要在全过程将潜在的风险降至最低,则人工智能军事应用的发展便将举步维艰,安全性也将一直得不到提升。
与第一类缺陷相比,第二类缺陷包含着较为复杂的人为因素。在民用领域,算法歧视主要同企业文化、设计者个人背景等社会层面的原因相关,而由于军事行动的主体通常为国家,军事领域的人工智能算法歧视还同国家利益、民族意识等密不可分。设想一下,如果二战时期的德国具备设计和制造人工智能武器的能力,是否可能在设计阶段嵌入针对犹太人和非犹太人进行区分打击的算法?当然,这只是一种猜想,历史不可能假设,今天的世界与20世纪中叶的世界相比,已经发生了天翻地覆的变化,纳粹和希特勒这样的极端个例在今天并不存在,但这并不代表以上的风险不存在。以历史唯物主义的视角审视,只要阶级还没有完全消亡、国家和以国家为主体的战争还没有退出历史舞台,国家与国家之间的矛盾关系便依然存在,只不过在不同的历史时期有着不同的表现形式罢了。国家需要他者扮演敌人角色,以便创造可以实现“权益”“光荣”“尊严”或者“道德”等价值的场所。因此,身处国家之中、深受民族文化熏陶的设计人员在建构人工智能军事应用的基础算法时,就有可能受意识形态影响,有意识或无意识地对人工智能武器在盟国和敌对国的应用进行区分,而一旦做出这样的区分,无论动机为何、程度如何,都会带来严重的伦理问题,也将给人类和平事业造成巨大威胁。有一种观点认为,加强科学团体的社会责任感可以有效规避上述风险,但在笔者看来,仍然存在几点疑虑。首先,对于国际社会的责任感是否能够抵消意识形态层面的因素;其次,科学团体及其中的个体也都可能受自身价值观影响而含有各种不同形式的偏见;再者,即便上述两点影响得以克服,根植于内心深处的爱国热情、民族意识、社会文化也将不同程度地左右每个人的选择。因此,要将以上伦理风险降至最低,就需要暂时跳出民族国家的具体语境,在更高的层面进行商讨,以期达成一定程度上的共识,并通过相关法规予以确认,通过国际社会版本的“交往理性”抵御人工智能算法歧视在军事领域引发的伦理风险。
如果说前两类缺陷更多体现设计层面的静态因素,那么第三类缺陷则更容易受动态环境因素影响。历史上,已经出现过类似的先例。1983年9月26日,苏联的导弹自动预警系统报告称,美国向苏联发射了5枚洲际弹道导弹。而事实是,苏联卫星从云层反射的阳光(与环境的意外相互作用)中检测到“导弹发射”的假阳性。可以想见,如果当时彼得罗夫中校选择相信系统报告的错误信息,按照规定程序上报,后果将不堪设想。当然,科学技术毕竟是在不断发展的,今日的自动预警系统相较于过去在测算精度、稳定性、安全能力等方面均有了不小的提升,未来人工智能在军事领域的应用理应有更好的表现。但是,潜在的威胁并没有完全消除。一方面,就目前的技术发展状况来看,还无法确保未来的人工智能在动态复杂环境下不会出现误判;另一方面,由于战场电磁环境日趋复杂,未来人工智能系统在战场上受到的干扰和迷惑只会越来越复杂多变,从而对算法的稳定性产生更大的考验。有人可能会提出,降低人工智能的自主性,将判断权和决定权牢牢限制在指挥官和操作人员手中,可有效规避上述风险。但这只是一种理想的假设,人对于军事技术的运用不仅仅受伦理的约束,还与作战效率密切相关。主观上将军事技术的使用限制在一定阈值下,在实际操作层面实现起来并不容易。
数据漏洞引发的伦理风险
数据安全是指算法内部数据模型或外部数据集在处理、存储过程中的数据安全问题。在军用领域,人工智能数据安全主要面临两大风险,即训练数据被污染的安全风险和核心数据遭窃取的安全风险。
人工智能发展到当前阶段,训练数据被污染的风险主要来源于数据投毒。数据投毒是指通过在训练数据里加入伪装数据、恶意样本等,破坏数据的完整性,进而导致训练的算法模型决策出现偏差。在军事领域,人工智能应用的安全性与其准确的识别能力、精确的打击能力、快速的反应能力密不可分。而一旦训练数据被严重污染,就有可能导致以下几种情况的出现:人工智能决策系统给出的方案并非最优方案,甚至存在巨大安全隐患;人工智能武器系统在无人授权的情况下随意改变攻击目标、扩大攻击范围,造成严重的平民伤亡;与人工智能相关联的战略武器系统受到错误诱导,自主启动发动攻击,从而引发毁灭性灾难。诚然,人工智能作为科学技术发展的最新成果,其本质的工具属性并没有改变。正如爱因斯坦在1930年给英国反战团体“不再打仗运动”的复信中所指出的:“科学是一种强有力的工具。怎样用它,究竟是给人带来幸福还是带来灾难,全取决于人自己,而不取决于工具。刀子在人类生活上是有用的,但它也能用来杀人。”人工智能在军事领域应用的巨大潜力和潜在风险同时存在,既不能一叶蔽目,也不宜因噎废食,要一分为二、辩证看待。同时,也应看到,虽然人工智能的出现并没有彻底颠覆科学技术和军事安全之间的关系,但由于人工智能高度“拟人化”的行为特征和“去人化”的运行机制,加之军事活动与以生命健康权为基本权利的人权密切关联,一旦内在的风险释放出来,势必会对人类安全造成严重的威胁。因此,从技术伦理的角度对训练数据被污染的潜在风险进行审视,并加以规制,不仅是必要的,也是必需的。

人工智能算法本质上可以看成一个很复杂的函数,若其内部某些参数泄露,则攻击者可以利用这些信息构造出与原模型相似度非常高的模型,进而可以还原出模型训练和运行过程中的数据以及相关的隐私数据。在民用领域,数据遭窃取的风险主要集中在用户隐私、公民权益、商业秘密、知识产权保护、社会公平公正等方面,世界各国已陆续从国家战略层面、法律法规层面、标准制定层面对人工智能数据管理加以规范。而一旦进入到军用领域,由于数据安全的责任主体从个人、企业、组织上升到了国家,数据安全风险的波及范围也从社会内部延伸到了国家之间,其复杂程度和敏感程度均有了显著提升。譬如,在战时,为了掌握战争主动权,对交战对手的军事情报和密码进行窃取和破译通常被认为是符合战争法和军事伦理规范的。但在平时,以人工智能技术为媒介,窃取别国的核心军事数据,以至于严重威胁国防安全,则无论是在法理上还是道德上都存在较大的争议。这样的行为一旦得到默许,势必会加剧国与国之间的紧张关系,对原本就脆弱的国际安全局势产生恶劣影响。另外,黑客和恐怖组织也同样有可能通过人工智能技术漏洞窃取相关数据,开展非法和恐怖活动,危及国家安全。
简言之,由于人工智能军事应用以大量的数据为支撑,其发展的同时必然伴随着巨大的数据安全风险,如果管控不当,势必引发严重的安全伦理问题,这也提醒我们以审慎的态度来看待人工智能在军事领域的应用前景,切勿盲目乐观、急于求成。

信息失控引发的伦理风险
信息安全是指人工智能技术下,信息的保密性、真实性等安全问题。一方面,大数据的出现使得对于个人隐私信息的收集变得越来越容易进行;另一方面,随着换脸换声技术的兴起,伪造图片和音视频信息大量涌现且真假难辨,大大降低了信息的可信度和透明度。基于以上特点,人工智能军事应用将面临两大伦理风险,即个人隐私信息被用于军事目的和信息迷雾冲击战争伦理的风险。