人工智能工具需适应“全球南方”对于可解释性的需求

在新一代人工智能快速发展的进程中,“全球南方”国家由于缺乏发展前沿人工智能的相关资源,暂时处于人工智能技术创新的“接受者”位置。但是这并不意味着“全球南方”在人工智能治理中也要居于边缘地位。本文选取了卡内基国际和平基金会的三篇文章,重点探讨AI(ArtificialIntelligence)在全球南方产生的深刻影响,基于全球南方的视角提出人工智能研究和出台相关政策具有必要性。

人工智能工具需适应“全球南方”对于可解释性的需求

2024 年4 月30 日,卡内基国际和平基金会发布了加拿大多伦多城市大学林肯亚历山大法学院助理教授Jake Okechukwu Effoduh 撰写的文章《全球南方对可解释人工智能的看法》(A Global SouthPerspective on Explainable AI)。作者基于其在非洲地区田野的考察结果,从“全球南方”视角提供了关于人工智能可解释性所赋予的功能、目的和意义的一些多样评估,并倡导可解释性人工智能持包容性态度,从而使人工智能具备满足不同群体和社区在可解释性需求的适应能力。

人工智能工具需适应“全球南方”对于可解释性的需求0

首先,作者指出,非洲已经进入AI 革命,但非洲的AI 用户不了解AI 系统运作原理,因此导致了AI 可解释性方面的问题。比如,尽管尼日利亚首都的外汇兑换商使用AI 应用程序确定和预测黑市汇率的波动情况,但不清楚其所使用的AI 系统设计者是谁;尽管肯尼亚基安布县的奶农使用机器视觉和图像识别软件来检测牛的疾病并提出治疗方案,但其无法解释这一机制运作的原理;尽管南非威特沃特斯兰德盆地的金矿工人使用一套传感器系统来监测矿井的结构稳定性、利用算法标记潜在问题以提高采矿的安全性,但其并不理解所使用系统背后的机制。因而,作者认为,虽然AI 系统输出结果的可解释性具有重要性在过去得到了不同程度的强调,但就其所研究的非洲地区而言,AI 系统嵌入社会中的更广泛运作,以及受影响者在更广泛的社会背景中理解、接受和信任这些AI 系统结果的能力受到了忽视,进而导致其存在两个方面的问题:其一,可解释的AI 缺乏清晰的描述和普遍一致的标准。当前对于AI 可解释性的监管格局呈碎片化特征,这或将使可解释性的评估复杂化,并引发关于AI 系统如何满足不同利益相关方需求的问题,比如,普遍和统一标准的缺位是否为多元主义和文化相对主义方法留下了发展的空间等。其二,鼓励可解释性AI 的主导政策的局限性根植于欧美视角,因此在非欧美文化的情景中的适用性有限。由于非洲国家等全球南方地区的行为体通常缺乏开发先进AI系统所需的资源,因而其在很大程度上依赖由全球北方等更发达的国家开发的AI软件。这种供需关系将非洲国家置于消费者的地位,而其所使用的AI 工具开发背景不一定与其本土文化、伦理和社会传统相一致。如果AI 的设计忽视了文化背景差异,那么AI系统提供的输出解释可能与当地的背景、实践或需求不符,导致用户难以理解AI 系统决策的基础,从而削弱了AI 系统的有效性,并限制了用户信任或有效地与其进行交互。比如肯尼亚的一些牧民养有博兰牛和萨希瓦尔品种的牛,其经常抱怨图像视觉机器经常误诊本地品种的牛营养不良,实际上是因为它们由于适应本地自然环境而体型娇小、体格瘦削。用于构建这些AI模型的数据的代表性不足可能部分地解释了为什么这些系统没有有效地捕捉到它们预期要处理的真实场景的多样性或复杂性,由于存在这样的差距,输出可能变得不够透明,更加难以解释。

人工智能工具需适应“全球南方”对于可解释性的需求1

随后,作者提出了两条改善AI 可解释性问题的路径。第一,可以采取诸如将人类解释者作为AI 系统与用户间的中介和引导者的非技术手段。具体而言,通过音乐、讲故事、调节和倡导等手段将AI 系统的结果翻译成与其社区文化背景相符的叙述,解释AI 系统处理的信息的背景、相关性和伦理影响,帮助非洲用户理解AI 系统。比如,坦桑尼亚存在着类似“格里奥(Griot)”的“AI 人类解释者”,该地区的一个妇女健康非政府组织获得了移动优化的AI 系统支持,来帮助那些可能无法负担检查费用或需要长途跋涉或长时间等待才能获得超声服务的贫困妇女。然而,一开始,AI 系统并不能解释胎儿测量结果和存在潜在问题的依据,这让一些女性感到担忧或不信任其准确性。后来,软件开发团队对AI系统进行了培训,再加上非政府组织成员对社区孕产健康问题和实践的既有知识,部分非政府组织的成员也担任起了AI 解释者的角色,有时还使用本土文化叙事的故事提供了AI 系统可能的影响和错误的基本背景解释,来指出女性可能需要标准后续程序的情况,改善了此前缺乏AI 可解释性的状况。此外,这些解释者用斯瓦希里语描述平板电脑模拟图并回答与AI 工具无关的孕期问题,帮助患者理解并信任AI 系统的使用,更重要的是,其修正了数据的去背景化或潜在偏见的解释,为机器智能计算增添了人性化的解释,填补了技术设计者未能意识到的一些解释性空白。第二,作者建议将可解释性建模为一种生成性练习,使用户能够定制解释为自己的语言,并以母语和熟悉的语言表达方式接收交流,以解决AI治理中可解释性伦理要求过于广泛的问题。考虑特殊文化背景的可解释性不仅有助于个体理解,还可以通过承认人权及相关的隐私和集体身份规范,惠及整个社区,因此,作者建议建立一个更为健全的可解释性框架来开发AI 系统,这样可以确保受系统决策影响的人能够质疑或改变结果。

最后,作者呼吁,AI 工具应当充分考虑对不同人群和社区所需的透明度、可解释性和解释性的适应问题。非洲地区已经开展了实践尝试:非洲人权与人民权利委员会于2021 年通过的一项决议是第一个由超国家授权进行的关于如何在尊重非洲本地社会普遍存在的社区价值观、文化细微差别和社会动态的情况下作出和解释AI 决策的研究,这一举措可能会挑战西方中心主义AI 模型中常见的个人主义方法,因为其不仅倡导在技术上可解释,而且在文化上共鸣并符合用户重视的价值观和结构的AI 系统。然而,考虑到非洲国家对全球北方AI 技术可能存在的依赖,作者还建议非洲国家和全球北方的AI 开发者之间必须进行对话,以促进对可解释AI 构成的共同理解和共同贡献。

应当采用基于“日常伦理”的人工智能伦理治理方法

2024 年4 月30 日, 卡内基国际和平基金会发布其数据与社会研究所高级研究员Ranjit Singh撰写的文章《治理人工智能的普通道德规范》(Ordinary Ethics ofGoverning AI)。文章指出了全球南方和全球北方关注人工智能的侧重点不同,提出了基于“日常伦理”进行人工智能治理的方法,指出了强制性数据、数据驱动的委托和后端工作这三个可能引发的问题,并从给人工智能讲故事、人工智能讲述的关于人的故事和人工智能治理作为日常伦理的场所三个角度进行阐发。

首先,作者强调了南北视角下AI 伦理治理的侧重点具有差异性。相比于全球北方的AI 伦理学研究重视AI 的工具属性并关注偏见、公平、问责、透明度、可解释性和以人为本,全球南方视角下的AI 伦理治理更加关注数字化的挑战和国家行为体建立数据管理和AI 基础设施的问题,同时更加强调尊严、劳动、殖民主义、实验、主权等AI 带来的后果与日常伦理。这种“南北差异”使得人类代理权问题逐渐凸显,即AI 系统通常在日常决策中扮演“代理决策”的角色,而大多数使用其进行决策的群体则发现其自身处于自动化决策的接收端。因此,作者借鉴了人类学家Veena Das 的“日常伦理(ordinary ethics)”概念指出,应当采用基于“日常伦理”的方法管理AI 的影响,关注“道德判断(moral judgments)”的关注与日常生活的纹理和细节。具体而言,“日常伦理”路径下的治理方法认为人们对计算机在日常生活中的角色认知创造了其代理决策的条件,而非关注人工智能的技术能力,因为对于世界上大多数不参与开发计算系统的人而言,其更需要明晰其与这类系统互动的实际体验,以及发展应对计算系统处理日常问题的能力以熟悉这一新事物。基于“日常伦理”的管理方法,作者指出了该路径下人工智能治理可能需要关注的三个方面。首先是强制性数据,比如在特定的国家中,日常生活中不可或缺或必备的某些类别的数据为强制性数据。其次是数据驱动的委托,即需要厘清被委派给计算机进行决策的决策类型,以及这些以数据驱动的委派在实践中是如何实现的。最后是后端工作,即将计算系统与生活情境对齐的工作,这项工作既依赖于人们理解计算系统方面的能力,又要求人们创造出可理解的和变通的方法以利用这些系统完成工作。

随后,作者从给人工智能讲故事、人工智能讲述的关于人的故事和人工智能治理作为日常伦理的场所三个角度阐述了基于“日常伦理”进行人工智能治理的挑战与出路。第一,人们需要向AI“讲故事”,每一个数据类别就是故事的某个方面,也是将复杂的生活情境翻译成案例代表性的代理。但这将产生一系列问题:首先,计算系统中的认知越来越成为主张公民身份和国家服务的先决条件,缺乏认知通常与社区的系统性排斥相关联,比如由于数据类别间不匹配,一些肯尼亚公民存在双重注册身份问题;其次,监视是计算系统提供可读性产生的不可避免结果,而人们的身份越容易被识别和认证,其生活就越不私密。通常情况下,由数据驱动的服务能力往往受到缺乏数据的限制,而在肯尼亚的例子中,当一个民众被打上“难民”数据标签就不能更改其身份为公民,更难以享受公民应有的权利。在数据驱动的委托方面,由于管理公民数据充满了处理伪造和腐败的挑战,国家依赖计算机系统以应对这些挑战,而这一做法却引发了社会保护如何组织以及证据如何使难民或公民的身份得到认证等问题,同时,存在身份认证问题的公民缺乏合适的机制进行申诉,进而构成挑战。在后端工作方面,双重注册问题揭示了后端工作不仅仅是以数字的形式注册和存储个人数据,其还涉及努力获取注册身份的官方文件到参与法庭诉讼等更复杂的因素。第二,AI 系统输出过程扎根于现有数据的收集、整理和分析基础设施过程中,其本质为预测和复制过去的决策和行为。而在现实中,计算系统与日常实践存在着不匹配的问题,并将引发不同的伦理挑战。具体而言,在强制性数据方面,既有的AI 系统难以反映数据在不同时空条件下发生的变化,如在未收集涉及个人隐私数据的条件下自行发生改变的数据存在可信度的问题,但收集了个人隐私数据则又涉及公众被AI 监视的问题。在数据驱动的委托方面,尽管当前国家的数据化和自动化已经得到推进,但对于那些被自动系统错误或不公正地分类的人来说,有效的错误检查和救济机制却滞后了,而校正自动决策系统需要太长时间,这将对部分“受害者”带来负面影响。在后端工作方面,撤销自动决策系统做出的错误决策带来了巨大的工作成本,“受害者”不仅需要应对复杂的文书工作,还需要在申诉时澄明数据决策的错误。第三,基于人类与人工智能进行交互时产生的种种问题,作者建议公众的关注点转向与人工智能共存,接受与计算系统的代理权共存的事实,同时充分关注处于人工智能优化和设计边缘的群体。

“AI 工具应当充分考虑对不同人群和社区所需的透明度、可解释性和解释性的适应问题。”

人工智能工具需适应“全球南方”对于可解释性的需求2

对此,作者呼吁人工智能在生活中的参与应当成为一种“日常”,并提出了相关建议。第一,在强制性数据方面,作者建议应当确保计算系统代表更广泛的群体,最小化强制性数据的要求,并最大化服务的可访问性,这要求相关服务在网站上提供简单易用的表格,并能够快速加载,而且能够在笔记本电脑和手机上表现良好。第二,在数据驱动的委托方面,实现不同参与者之间的权力平衡是治理人工智能的必要条件。作者认为,计算系统代理权和数据主体在普通数据驱动的生活中相互塑造的关键在于通过公众参与、各类活动和法律活动等进行协商,以实现权力的平衡。第三,在后端工作方面,在普通民众间共享并推广的运作计算系统经验的形式应当得到支持,其将成为执行基于日常伦理方法进行人工智能治理的典范。

上一篇 点击页面呼出菜单 下一篇