AI能学会遵守法律吗?

AI能学会遵守法律吗?0

安德拉·哈尔达尔(Antara Haldar)

安德拉·哈尔达尔,是剑桥大学实证法律研究副教授、哈佛大学客座教授,也是欧洲研究委员会法律与认知项目首席研究员。本文已获Project Syndicate授权。

如果说艾伦·图灵关于“思考机器”的研究是我们现在所说的人工智能的前传,那么已故心理学家丹尼尔·卡尼曼的畅销书《思考,快与慢》可能就是续集,因为它洞察了我们自己是如何思考的。理解“我们”对于规范“他们”至关重要。

这一努力已迅速成为政策制定者的首要议程。去年11月,20多国签署了欧盟的《人工智能法案》和《布莱切利人工智能安全宣言》。而在美国,拜登发布了一项行政命令,要求“安全、可靠地开发和使用”人工智能。

这些努力是对人工智能军备竞赛的回应。这场竞赛始于OpenAI在2022年底公开发布ChatGPT。最根本的担忧是日益为人所知的“一致性问题”:AI的目标和追求目标的方式可能不尊重人类的目标,甚至不兼容人类的目标。新的人工智能工具也有可能被不良行为者滥用,加深和扩大已有的歧视和偏见。不断进化、能够自学的人工智能还可能失控,决定制造一场金融危机、左右选举,甚至制造一种生物武器。

在人工智能作为一种潜在的生存威胁的地位背后,有一个悬而未决的问题:这项技术应该与人类的哪些价值观保持一致?现实生活中辩论的焦点,包括微软在2016年发布了一个种族主义、厌恶女性、超性感的聊天机器人,以及必应奇特的操纵欲和诱惑性(它试图说服一名科技记者离开他的妻子);最近,谷歌的双子座(Gemini)的“醒了”特性导致它产生了历史上荒谬的结果,比如黑人纳粹士兵的图像。

幸运的是,现代社会已经设计出一种机制,允许不同的道德部落共存:法治。法律作为一种制度,代表着合作的典范。几个世纪以来,人类一直在努力解决自己的结盟问题:如何组织集体行动。在此之后,它的出现是一个深刻的突破。

在认知上,法律代表了一种激进的新技术。一旦内化,它就会使个人行为与社区共识保持一致。法律被当作法律来遵守,而不考虑个人对任何规定的主观判断。几位著名的哲学家都把注意力集中在这个独有的特征上。20世纪的法律理论家H.L.A. 哈特,将法律描述为一种机制,它允许通过改变潜在的行为元规范来塑造规范。

最近,罗纳德·德沃金用“完整性”来描述法律,因为它体现了整个社会的规范,而不是像一个“棋盘”。如果法律是拼凑而成的,它可能会更好地代表个人的信仰和观点,但会牺牲连贯性。因此,法律作为一个凌驾于个人行为之上的按钮,它吸收了关于道德和价值观的复杂辩论,并将其磨成有约束力的规则。

目前关于人工智能和法律的大多数辩论,都集中在这项技术如何挑战现行的监管范式上。其中一个担忧是“红皇后效应”,它描述了在快速发展的技术下保持监管与时俱进的内在困难。另一个问题是,在全国范围内监管一项真正全球性的技术所面临的挑战。还有一个弗兰肯斯坦式的怪物问题:一项新技术主要是由少数私营公司开发的,这些公司的优先事项与公众的不同。

重要的是,如果“思考机器”能够学习,它们能学会遵守法律吗?随着科技巨头们争先恐后地追求通用人工智能,人工智能的“黑匣子”问题依然存在。即使是这项技术的创造者也不知道它是如何工作的。由于给人工智能分配“目标功能”的努力可能会产生意想不到的后果,我们将需要一种更复杂的方法。

为此,我们应该研究认知进化,它使人类社会能够持续这么久。人类的法律是否可以作为设计约束,这是工程师的一个问题。但如果它能做到,它可能代表着我们的救赎。

上一篇 点击页面呼出菜单 下一篇