“AI 教母”李飞飞“AI越强大,我们越要珍视人性”
作者: 徐梅“很多人都在写关于AI的内容,但你的经历是独一无二的。”约翰·埃奇门迪一开口,李飞飞就知道,自己在新冠大流行期间花了一年时间写出的关于AI科技史的书稿并未得到这位智者的认可。
2019年李飞飞在斯坦福大学建立以人为本AI研究院(以下简称“斯坦福HAI”)时,约翰出任联合主任,他曾担任斯坦福大学教务长,得益于他的鼎力支持,李飞飞设想的一个以鲜明的AI价值观为核心的跨学科研究机构得以顺利落地。当美国科技大厂的AI研究投入已经超过研发原子弹的曼哈顿计划甚至登月计划而成为一项特权、越来越被大型科技企业掌控时,斯坦福HAI不断向政府和公众发出公正、专业的警示之声。
李飞飞说她当时感到有些沮丧,但约翰关于书稿修改的建议令她无法拒绝,这本名为《我看见的世界》的传记最终以双线交织的结构呈现,一条线索是青年科学家在AI研究领域的好奇、探索与发现,另一条线索则是一个移民少女成长为世界级科学家的曲折历程。
约翰坚信,在人工智能这个“男山男海”的世界里,15岁才从中国移民到美国的女性科学家李飞飞是不被看见或者说“不被听见”的少数人群的最佳代表——曾经长期被贫困和第二语言困在命运浓雾之中的亚裔女性、洗衣房店主的女儿,初到美国时,连计算器都只能从车库的二手市场购买;持守对科学真知的热爱,耐住贫寒一路读到博士毕业成为一名“青椒”,仍然摆脱不了生活压力和职业晋升的双重挤压。
直到2009年33岁的青年助理教授李飞飞和自己的学生一起完成了ImageNet(美国斯坦福大学的计算机科学家模拟人类的识别系统建立的目前世界上最大的图像识别数据库),将史上最大的一个图像数据集投向冰封的人工智能世界,沉寂许久的神经网络算法AlexNet吃下这个大数据,电脑显示出与人类接近的识别能力,人工智能研究就此结束寒冬。她也因为让计算机“看见世界”而被世界看到,美国著名科技媒体《连线》杂志称,李飞飞是对AI飞跃式发展具有突出贡献的少数科学家之一,“这些人非常少,以至于厨房里的一张餐桌就可以坐下。”
约翰坚信李飞飞的书里不应该只有AI,当AI走出实验室,成为一个深刻影响全社会的技术,每个人都需要知道自己在AI中的位置,也有权利发出声音,“这些人可能包括移民、年轻女性以及来自不同背景的人们,他们并不一定是典型的硅谷AI从业者。如果你能为他们提供一个发声的平台,你的书将会更具影响力。”
这本书在2023年底推出英文版后,备受好评,中文简体版也于2024年4月底出版发行。评论家认为她开口讲述的宝贵之处不仅在于对AI和智能研究的深刻洞察,更在于她以自己真实的人生经历,做了一个关于“人类力量和可能性的美好见证”。
当李飞飞书中的两条故事线交汇于“人性”和人文关怀时,常为AI可能毁灭人类忧心的“深度学习三教父”之一的辛顿教授说,“在当前历史的关键时刻,我们急需这样的声音。”
“你是一个什么样的科学家?”
“飞飞,你到底是做什么的?”
“什么?”李飞飞把视线从膝盖上的笔记本电脑转到病床上刚刚醒来的母亲,母亲的这个问题实在奇怪,她忍不住大笑了起来。
这是2013年的夏天,过去的二十多年里,她已经记不清有多少次,父亲突然告诉她,“你妈妈病了!你在哪里?”
从高中开始,她就必须陪同父母一起去医院,充当母亲和医生之间的翻译,一路走来,身为独女的她曾在母亲的病床边写作业、考试、写论文、改学生的论文……
“照顾母亲的健康已经成了我的第二职业,”李飞飞写到日常生活的时候,有小说家一般的精准生动,“每当手机屏幕上显示母亲的名字,我就感到自己的心在下沉。无论生活把我带向何方,我都觉得自己永远处于一种脆弱的状态。”
多年求医,她将病患和家属的痛苦定格为几个画面——“酸痛的双脚、走破的网球鞋、休息室里冷冷的披萨。”这几幅画面如果放在她创立的ImageNet里,可以做一个简单明了的静物标注,只是人不用看画面,只读一遍文字就会产生深刻的共鸣,而机器无心,不知道那几个形容词里有多少心灵的焦灼。
“妈妈,你问我是在做什么?是问我靠什么赚钱吗?”
“我知道你是科学家,但这么多年,我们都没有讨论过你是哪种科学家。”
这个最初看起来有点滑稽的瞬间,李飞飞后来每一回想就心生一种“崇敬之情”。一直以来,她都将科学家和照顾慢性病人的两个角色区分得泾渭分明,妈妈的随口一问,以及听到她关于人工智能研究的阐释后追问的那一句“飞飞,人工智能还能做哪些事来帮助别人呢?”让她意识到AI不是科学家满足好奇心的研究对象,如果连穿着病号服的母亲都渴望了解更多,像她这样的人工智能科学家就有了更大的使命感。
李飞飞说,是这些让她在AI还未成为产业热点和社会痛点的时候,就成了一名具有鲜明价值立场的“AI人本主义者”——“人工智能在医院里能做什么?我不禁想问,在医院这个我们度过了如此多时光的地方,是不是有最需要被讲述的故事?”
与母亲在病房里讨论人工智能之后的几个月里,李飞飞一直在思考如何把AI与病人护理结合起来。她认识了医疗领域的传奇人物阿尼博士,阿尼告诉她,仅仅是因为医护人员的看护疏忽,就导致美国每年有10万病患意外死亡。
他希望李飞飞能够将AI带入已经开始的远程医院监控技术中。他们将减少院内感染的大问题逐步分析聚焦,发现只要通过监控并提示医护人员按照要求“洗手”,仅这一个细节的改善就可以大大预防住院病人的意外感染。
这是李飞飞“环境智能”研究的开始,最初她以为这只是一个技术问题。当她将AI技术带出实验室后,通过这个小小的介入,她得以触碰到AI技术在现实场景下衍生出的惊人的复杂性:刚性技术监控撞上复杂的医患心理,最新技术与既有医疗伦理如何兼容,世界充满细节,细节令人敬畏。

第一位同意她和研究团队进入诊疗空间的医师告诉她,在见到她之前,他很讨厌那些关于AI要取代人的论调,“飞飞,我喜欢你,因为你总说,AI是为了帮助人。”护士则悄悄告诉她,她们很不喜欢这种机器监控,称之为“老板监控”。 而李飞飞的母亲在一次病后恢复中,因为女儿和某个小仪器的双重监督,感到自己只是被要求而不是被关爱,“连你都在管我!”老人家以不合作的方式表达了无声的抗议,“哪怕你是为我好,但那个时候你们让我感觉自己失去了尊严,就连生命也不值得我去争取了。”
“场景越混乱,就需要越长的时间才能理解。”李飞飞的感触有时候是针对机器学习,有时候是针对包括自己在内的AI科学家。事实上,对于人工智能如何帮助人?什么是人真正需要的帮助?很多时候,就连科学家群体也不清楚最重要的问题是什么,它曾经被视为一个单纯的技术问题,而现在,技术介入具体场景的伦理问题以及对人之为人的认识才是最大的挑战。
常年陪同母亲就医、住院,李飞飞知道一个当班护士一天要在病房走6到8公里。当一个脚底酸痛的护士一边手法娴熟地为母亲调整静脉注射的针管,一边还能用温柔的言语和眼神给予患者理解、尊重和同情时,她总会情不自禁地泪目,“我本该记录一些机械且容易量化的东西,但我无法将视线从医护人员身上挪开。”
她由衷感谢过往无数次出入医院时在急诊室、ICU遇到过的医护人员,“一个好医生是信息的总汇、力量的源泉,有时甚至是病人及其家属在痛苦时刻的精神支柱。AI肯定不是为了取代这样的人!”
满足人的需要、增强人的能力、赋予人尊严,她渐渐清晰自己是“哪一种科学家”,不是她父亲开玩笑的“疯狂科学家”,而是一个以人性为中心的科学家,甚至是科学思想家。“我一直强调,我们不能忘记我们的人性和尊严。在这个机器日益普及的时代,我们更要珍视彼此的人性。这是我们独特的核心,也是我们构建和应用机器技术的出发点。”
800个GPU
2024年年初,李飞飞开始了自己的第二次学术休假。对于这位斯坦福大学明星科学家的动态,媒体极其关注,据悉她已经启动了一个关于空间智能的创业项目,但她本人对此次创业的具体内容却三缄其口。相反,她第一时间在社交媒体上推荐大家认真阅读斯坦福HAI在4月15日推出的《2024年人工智能指数报告》,“值得从头读到尾!”
斯坦福大学HAI研究中心的创立,与李飞飞的第一次学术休假密不可分。2016年她利用长达21个月的学术休假时间,第一次从大学走进大厂,担任了谷歌云的首席科学家。大厂的实地工作经历和观察让她对AI的未来发展充满担忧,她公开了自己的立场:“光是靠企业那些陈词滥调,绝对不足以让我们相信AI值得信赖。”
第一次学术休假结束后,她重返校园,发起成立了斯坦福以人为本智能研究院,研究院致力于三个方向的工作:推进和发展下一代 AI 科学(着重与脑科学和认知学交叉)、研究和预测 AI 对人类社会和生活的影响、设计和实践以人为本的 AI 技术和应用。斯坦福HAI倡导全球各地的学者、创新企业和非政府组织以及政府联手,“整个AI学科似乎是重新诞生了一次”,重生的目的是为了确保“AI领域不会永远被科技巨头,甚至我们这样的大学所垄断。”
斯坦福HAI推出的人工智能指数报告关注AI学科研究的透明度、行业及法规监管的及时性以及社会心理对这一超级技术的反应和变化。
最新推出的报告全面追踪了2023年全球人工智能的发展趋势。根据估算,最先进的AI模型的训练成本已经达到了前所未有的水平——OpenAI的GPT-4估计使用了价值7800万美元的计算资源,而谷歌的Gemini Ultra的计算成本则高达1.91亿美元。相比之下,几年前发布的一些RoBERTa Large(2019 年)和原始transformer模型(2017 年),训练成本分别约为16万美元和900美元。
2023年,以AI大厂为主的产业界一共发布了51个著名的机器学习模型,而学术界只贡献了15个。报告特别强调,当红炸子鸡LLM(大语言模型)在安全检测方面缺乏统一的标准化方法。包括OpenAI、谷歌和Anthropic在内的头部AI机构,都是依据不同的安全标准测试他们的模型,“这使得比较不同顶级LLM的风险和局限性的工作变得更加复杂。”
社会心理对AI的认识从新奇变为焦虑,2023年,美国52%的人表示对AI感到担忧多于兴奋,这一比例比 2022 年的 38% 有所上升。此外,超过三分之一的人对AI持悲观态度,认为自己的工作在5年内会被AI取代。
能给人稍稍带来安慰的是AI监管也在同步发展,《2024年人工智能指数报告》显示,2023年全球立法机构中有2175次提及人工智能,几乎是上一年的两倍。美国人工智能相关法规的数量在过去一年大幅增加,2023年有25项,比2022年增长了56.3%,而2016年只有1项。其中许多法规包括生成式人工智能所使用的素材及产出内容的版权规范指南和网络安全风险管理框架。
“AI正在成为一种特权!但AI应该是一种责任,从业人员除了专业技术,也必须懂得哲学、伦理学,甚至法律。”当公众开始畏惧AI的发展失控,当大厂CEO的狂妄达到新高度,当科技企业对劳动者公然流露出冷漠,李飞飞深知AI的发展之路充满复杂性,“若想取得真正的进展,需要抱着一份崇敬,硅谷在这点上似乎并不合格。”