OpenAI最后的战役
作者: 朱秋雨
一个创始人被公司赶走,不是一件罕见的事。OpenAI董事会与创始人、CEO山姆·奥特曼在11月发生的这一场宫斗,本来也不该是值得奇怪的事。
后者,一个自诩奥本海默般的硅谷菁英,在一个大周五的中午,被亲手组建的公司通知他被解雇了。连同被解除职务的,是会议都没来得及出席的董事会主席格雷格·布洛克曼。
11月17日,会议进行的同时,OpenAI对外发布通告:因为奥特曼“不坦诚”,导致董事会失去信心,所以解雇奥特曼。
言辞没留下一丝体面。
5天后,奥特曼与OpenAI像一对重归于好的密友,发声明表示,两方达成一致,奥特曼回来当CEO。
一切又像传统商战里的闹剧—受利益驱使的双方反复博弈、相互说服、一方胜出的故事。这个剧本在硅谷上演过很多次,我们到底为什么要关心呢?
美国媒体Politico的科技记者Derek Robertson写道,全世界对这家AI公司的高度关注,是硅谷文化渗透的缩影。在硅谷的世界里,对领导者个人命运和个人风格的关注,远高于对大公司人事变动和系统架构的关心。不管人们承不承认,像马斯克和奥特曼这样的几个人,正在塑造着当下。
这样的矛盾同样关乎着人类命运。如何确保人工智能的发展符合人类的福祉,而不是像奥本海默一样—掌握先进技术以后,是由在京都度过蜜月的美国总统杜鲁门最终决定,要在广岛而不是给京都投掷威力巨大的原子弹?
在ChatGPT即将发布一周年之际,关于如何实现上述方向,而不是走向相反的路的争执,将OpenAI“内斗”引燃。毕竟,2015年,OpenAI由奥特曼创立时,他为目标设置了出厂“保险”—非营利机构。他们还给投资人忠告:“以捐赠的精神看待对OpenAI的投资。”但在11月,OpenAI被曝研发出了可能对人类产生威胁的AI。
这也许是来自OpenAI内部最后的战役。11月22日,随着擅长对外社交和融资的奥特曼回归,不再天真的OpenAI已然成为自己过去回避的巨头。
前方要走的,注定是需要平衡多方的路。颤颤巍巍地,OpenAI不再如以前一般酷了。
重要的是,人类会怎样?
觉 醒
2016年,在硅谷最具盛名的俄罗斯籍风投家尤里·米尔纳位于洛斯阿尔托斯的城堡里,一个小型放映会正悄然进行。
放映会的“主角”是HBO的新电视剧集《西部世界》。攒局者除了城堡的主人,还有当年只有31岁的AI机构创始人奥特曼。两人在邀请函里写道:“邀请您参加《西部世界》首播集观影会,这是一部探索意识和人工智能前景的新连续剧。”
连续剧的第一集,设定在有着凹凸起伏山脉的美国西部。在不同服饰与悬疑音乐的切换中,人们才知道,这个西部世界由伟大的AI科学家创造,里面的多数“活人”都是AI扮演,相当于一个真实的AI游戏小镇。高高在上方监控的人类,唯一的烦恼在于:极少数AI数字人会不按剧本走。
毁灭犯错的AI容易,在西部世界,科学家内部无法达成一致的是:要不要搞清楚犯错的AI是如何运行的;没有答案之前,要不要停止项目?一个豆瓣网友总结,这是一个内核关乎觉醒的故事,“更开脑洞来说,我们人类是更高级的人工智能,因苦痛而觉醒”。
奥特曼被罢免,是因为董事会“担心他对OpenAI实现安全和有益AI的承诺”无法兑现。
影视剧桥段在生成式人工智能定义的2023年,变得不突兀了。在GPT-4发布后的3月末,近千名AI界大人物签署联名信,呼吁所有AI实验室暂停训练比GPT-4更强大的AI系统至少6个月。签了名的,有大名鼎鼎的图灵奖得主Yoshua Bengio、苹果联合创始人Steve Wozniak、《人类简史》作者,以及在2018年退出OpenAI的联合创始人埃隆·马斯克。
很难说得清这些前瞻者对人工智能的担心是否过分。毕竟,ChatGPT为代表的大语言模型,用的还是过去深度网络最擅长的那套:在广大无穷的数据之中寻找共性,推测概率。尽管看上去像个有知识的本科生,但它们从未真正掌握语言本身。
只是,半年内,GPT-4在各项榜单上的一骑绝尘,让越来越多的担忧从四面八方涌入。最擅长对外的奥特曼由此出席了各类场合。他像扎克伯格一样出席美国参议院的听证会,接着进行了环欧出行,与英国首相、法国总统等欧洲政要见面,共同探讨AI的未来与监管。
最近的一次,是他出现在亚太经济合作组织(APEC)峰会上,11月16日。
他还发表了讲话。
所有人都以为,OpenAI会像人们所仰望的那样,继续无懈可击。
但一切在11月17日开始摇摆。由六人组成的OpenAI董事会突然宣布,对奥特曼的解雇令立即生效。那一天,奥特曼在视频会议上得知消息。而与他共同创立OpenAI的另一人,被解除部分职位的总裁布洛克曼,甚至没提前收到会议链接。
毫无疑问,这次的“坍塌”发生得很突然。
《金融时报》报道称,奥特曼被罢免,是因为董事会“担心他对OpenAI实现安全和有益AI的承诺”无法兑现。据知情人士透露,奥特曼近日试图筹集1000亿美元,以建立一家AI芯片公司,与英伟达竞争。这样的路径与OpenAI“存在潜在利益冲突”。
另一个说法是,这位四处露面宣讲监管AI的造浪者,近日加快推进了旗下机构的商业化进程。11月初,他不仅推出了GPTs,还首次对外承认,OpenAI正在研发GPT-5,且将得到更多来自最大金主—微软的支持。
“我们将从对方的成功中赚钱,每个人都会很满意。”他允诺说。
这样的迭代步伐,引发了OpenAI六人董事会的担忧。一位OpenAI投资者解释,奥特曼等人试图部署强AI的速度超出了预期。
“他们因(当下)行动太快发生争执。就是这样。”
被认为最可能领导“政变”的,OpenAI首席科学家伊利亚·苏茨基弗(Ilya Sutskever),正是格外强调AI安全的一员。
这位俄罗斯裔技术天才,在接受《卫报》最新采访时,举了更多关于AI的负面案例。
“第一代通用人工智能(AGI),将一定是巨大无比的数据中心。带着深度网络处理器并行计算,将耗费掉数以百万计家庭的能源。”
那么,“人类真的会从中获益吗?谁会是获益者?谁不在其中?”
贯穿的矛盾
伊利亚是OpenAI的灵魂人物,至少是技术上的一号人物。如果在学术页面搜索,他是一个比奥特曼有名得多的人,师从“深度网络之父”杰弗里·辛顿。2012年,伊利亚与导师共同发明了用于图片识别的AlexNet。这个底层的革新,推动了全球此后十年人脸识别应用的高飞。
但这位主导OpenAI率先实现智能涌现的技术派,经常有着哲学化的表达。他将科技进步比作人类进化,说训练大模型就像人自然选择的过程,我们并不掌握每一个部位如何运行,但把握了基本原则—保留好的,去掉不利于人类的。
所以,“第一代AGI的愿景和信仰是很重要的,我们有必要非常正确地将它们编程出来,以免被只为自己利益而不顾他人的人所用。”伊利亚说。
在AGI上的志同道合促使OpenAI多位创始人在2015年走在了一起。他们首先达成共识:为了确保AI可以造福人类,这得是非营利实验室主导的项目。
他们将其命名为 “OpenAI”。这个名字是当时的创始人之一马斯克提的。如字面意思所说,OpenAI将推崇开放,将成果公之于众。
这是马斯克与谷歌联合创始人拉里·佩奇(Larry Page)讨论后的构想。与后者谈完后,马斯克对谷歌等大公司对AI安全的漠视感到失望,转而决定花100亿美元投资奥特曼的项目。几位创始人由此确认了这个实验室的基本原则—对抗巨头谷歌在AI领域强大的主导地位,并 “确保AI不会伤害人类”。
于是,OpenAI在成立的章程中强调,“要为每个人而不是股东创造价值”“主要信托责任是对全人类的责任”。它同时规定,员工的薪酬会与其遵守章程的程度挂钩。在2018年4月,它在新发布的章程中写道:如果另一个组织率先实现AGI这一目标,OpenAI将停止竞争步伐,与其合作。
“第一代AGI的愿景和信仰是很重要的,我们有必要非常正确地将它们编程出来,以免被只为自己利益而不顾他人的人所用。”伊利亚说。
只是,誓要实现AGI,对当时的初创团队而言,就像在汪洋泥沼中寻找拔出脚的正确道路,哪个方向都有可能。在2016年接受《纽约客》采访时,OpenAI也说不清楚自己在做什么。总裁布洛克曼给了一个模糊方向:“我们现在的目标……是做最好的事情。”
至于奥特曼,在成立OpenAI几年后,他在加州牧场的家告诉前来采访的记者,自己对钱不感兴趣。OpenAI将通过 AGI来获取世界上的大部分财富,再将这些财富重新分配给人们。
这个数字,“可能是1000 亿美元、1 万亿美元、100 万亿美元……”
关键方向的转变由伊利亚主导。
2017年,一篇由八名谷歌研究人员共同撰写的论文发布。官方标题是“注意力就是你需要的”(Attention is All You Need),首次提出了Transformer结构和自注意力等革命性概念。
曾在谷歌任职的伊利亚,成为全世界少数理解这一突破有多强大的人。总裁布洛克曼回忆:“真正的顿悟时刻是当伊利亚看到Transformer出来时。”OpenAI团队迅速投入其中,接着发现,“两周内取得的进步比过去两年还要多”。
这个新方向让所有人都为之振奋。重大的转变随之发生,他们意识到,让模型变得智能的关键,是要扩大规模,即在庞大的数据集上训练模型。
OpenAI决定为此押注所用。
“你需要更像一个工程组织来运营它,不可能让每个研究人员都尝试做自己的事情,”OpenAI董事会成员,也是Quora首席执行官Adam D’Angelo总结,“团队必须一起做这项更乏味、更不优雅的工作。这是 OpenAI能做到的事情,也是其他人无法做到的。”
横亘OpenAI至今的矛盾在这时出现。提高模型规模本身,需要大量的算力和资源投入,同时意味着必须投入大量的资金。这个需求,与非营利的设想本身,存在方向上的偏离。
最大“金主”马斯克在此时,因路线不合选择了退出。也因此,2019年正式担任CEO的奥特曼,跑去微软要了10亿美元投资。
救世主来临?
2023年11月的第三周,一场不被事先通知的“政变”,将OpenAI内部的相撞立场公布于众。这证实了马斯克等人的指责并非空穴来风,人们此刻意识到,内部的无法统一,真的足以摧垮一个冉冉升起的帝国。

关于OpenAI到底该往哪走,如何去往AGI的疑问,同时笼罩在这家新创公司的四周。有很多人开始认为,从OpenAI身上看到了熟悉的巨头模样—先采用亏损战略占领大部分市场,再运用赢家通吃的逻辑,获取利润。