人工智能的三个技术里程碑
作者: 胡泳今天,在相当多的情况下,判断你是在与人类还是算法进行交互,正在变得越来越困难。决定谁值得信赖,获取正确的信息,以及阅读正确的“信任信号”,对人类来说已经足够困难了。但是当我们开始将信任外包给算法时,我们如何去相信它们的意图?当算法或机器人代表你做出你不同意的决定时,要是产生了意外后果,应该责怪谁?
人工智能要想替人类完成很多让大家放心的事情,有三个技术里程碑需要越过。
其一,如何处理有多少人工、就有多少智能的问题。传统上,人工智能被娱乐业塑造出一个错误的形象,令我们以为它是在没有人类输入的情况下可以自如运作的技术。
现在我们号称进入了大数据时代,然而数据多并不意味着质量高,没有标注的数据可用性非常低。数据标注是重复性的工作,但它是大多数人工智能应用的起点。人工智能打着更好地把人从重复性的工作中解放出来的旗号,但现在存在一个悖论:要先通过人类的大量重复性工作才能让机器实现智能。
尽管数据标注一类的工作会逐渐为人工智能所接手,但放眼未来,人工智能将始终需要人类的投入和专业知识,从而以符合道德、负责和安全的方式充分发挥其潜力。例如,在社交媒体中,需要人类对算法的极端化予以纠正;在医学上,人类和机器的共同努力将产生比任何一方单独所能实现的更大效果;在自动驾驶等领域,人工智能的优越性是训练的结果,然而一旦发生了人工智能未经训练而不得不处理的事情,由人工智能驱动的优势就会被抹去。当这种情况发生,人工智能的处理能力必须让位于人类的创造力和适应能力。
所以,人工智能必须处理好人工与智能的关系。最终,只要有新的应用让人工智能学习,有新的任务让它掌握,人工智能就始终需要人类的投入。
其二,人工智能必须学习如何学习。今天可用的大多数AI技术,都是根据特定目标学习或优化其活动,因而只能按照所传授的内容进行操作。它们的能力反映了培训的数据及其质量,以及AI流程的设计情况。如前所述,通常,仍需要人工处理异常情况。
这意味着AI目前的形势很狭窄,专门用于特定的应用程序,它所遵循的流程和程序是不可迁移的。但是,当人工智能开始变得真正聪明并能够学习未被教授的行为时,它会对人类认知产生什么影响?在这个本质上是加速选择的过程中,伦理学的作用是什么?
其三,如何解决“不知之不知”的困局。“不知之不知”(Unknown unknown)是前美国国防部长拉姆斯菲尔德在2002年2月回应记者提问时的名言。2002年,美国以伊拉克政府拥有大杀伤力武器并支援恐怖分子为由,打算与其开战。时任国防部部长拉姆斯菲尔德被问及有关的证据时,他这样解释:“据我们所知,有‘已知的已知’,有些事,我们知道我们知道;我们也知道,有‘已知的未知’,也就是说,有些事,我们现在知道我们不知道。但是,同样存在‘未知的未知’—有些事,我们不知道我们不知道。”
人工智能系统的内部工作往往不透明,人类很难理解人工智能学习系统如何得出它们的结论。套用拉姆斯菲尔德的形容,这就是典型的“不知之不知”。所以,人工智能的一个必须克服的技术挑战是与人类自己相比的理解差距。为了解决这个问题,设计者和观察者已经在讨论在AI系统中需要一定程度的解释逻辑,以便检查错误并让人类学习和理解。