如果人工智能操控了马斯克
作者: 徐琳玲2024年10月,本年度诺贝尔奖获奖名单揭晓,物理学奖授予“通过人工神经网络实现机器学习的基础性发现和发明”,诺贝尔化学奖授予蛋白质设计和结构预测的相关研究。
人工智能正以当仁不让的姿态,占据人类社会发展趋势的潮头。
两年前,具有学习能力的聊天机器人ChatGPT横空出世,让全世界为之惊艳赞叹;不久,推出该产品的人工智能技术领跑者Open AI公司发生了首席执行官被解雇的戏剧性事件。随着“宫斗”大戏背后真正的冲突和分歧的披露,认真思考的人们全都倒抽一口冷气——我们人类是否急于释放自己所无法驾驭的力量,只为了战胜对手;而驱动这一切的,是野心、欲望,以及对其他人的极度不信任和恐惧。
事实上,留给人类的时间不多。据顶尖人工智能专家预测:人工智能追赶、打败人类,也许只需一两百年。
2024年正值美国大选选情进入激烈动荡期间,《南方人物周刊》记者书面专访了享有全球知名度的历史学家、哲学家、畅销书作者尤瓦尔·赫拉利。他的新作《智人之上:从石器时代到AI时代的信息网络简史》中文版于2024年9月出版。
我们就AI时代的人类命运,技术寡头给全球政治、社会带来的威胁与挑战,算法所煽动的仇恨、暴力和社会动荡,科技公司售卖的虚拟爱人……这些不断向我们逼近的问题,进行了对话。
人类的末日景象,会是最无情冷酷的技术寡头胜出,继而被真正意义上无情冷酷的AI所控制和征服吗?
在少年时代的很长一段时间里,尤瓦尔·赫拉利感到心头总有一股说不出的烦闷。
作为犹太裔,他在以色列一个非常保守的社区长大,很小就展现出智力上的天赋,3岁时无师自通学会了阅读,8 岁起被送入海法一家著名教育机构的天才儿童班学习。(以上信息来自《纽约客》2020年对他的专访)十来岁起,他就对生活中的重大问题非常感兴趣。“为什么世界上有这么多苦难?为什么人们相信神灵?”
17岁时,这个常常心神不宁的少年进入坐落于耶路撒冷的希伯来大学读历史学,认为这也许是帮助他尝试回答这些重大问题的理想场所。
“但我很失望。学术界鼓励我专注于狭隘的问题,给我的印象是无法以科学的方式处理重大问题。我后来成为中世纪军事史专家,写了一篇主题非常狭窄的论文——是关于15 世纪和 16 世纪士兵的自传。”他在回复我的邮件中回忆道。
但在业余时间,他一直在思考、探索他所真正关心的那些大问题。在英国牛津大学攻读哲学博士期间,他读到了美国生物学家贾雷德·戴蒙德风靡全球的畅销书《枪炮、病菌和钢铁》。
赫拉利将之称为一次“顿悟”——“那时我第一次意识到,写一本对世界历史采取如此广阔视角的科学书籍是可能的。”在戴蒙德的启发下,他撰写了后来成为现象级全球畅销书的《人类简史》。此后又陆续写出《未来简史》和《今日简史》。

2024年,赫拉利经过六年的调研、思考和冥想完成的新作《智人之上》出版。该书延续了他一贯的“大历史”风格,以当下最热门的人工智能为核心问题,探讨了人类社会从石器时代到AI时代的信息网络演进史,以及目前正在加速前进的AI对我们人类所构成的巨大威胁和挑战。
这是一个关心人类文明的过去和未来、动辄以10万年为单位的中世纪军事史专家,一个成长于宗教色彩浓厚地区的世俗主义者,一个执教于“千年圣城”、公开“出柜”的社会少数群体分子,一个身处族群冲突“火药桶“、对右翼强硬派当局持批评立场的知识分子……在宏大历史与渺小个人之间,这个面容清瘦、有着一双深色大眼睛的学者身上似乎存在一连串的身份“错位”。
当我小心翼翼、字斟句酌地问赫拉利:一个人到底是如何面对这些与周遭、“命定”的格格不入?他有选择性地、很敞开地分享了他在一个恐同社会中的艰难成长,以及这一经历如何影响、塑造了他看待人类历史和现实的眼光。
作为一个早慧而敏感的孩子,赫拉利少年时有个隐秘的痛苦—— 从很小的时候,他就隐隐觉察到自己的不同。“但我在一个非常恐同的国家长大,成为同性恋是你一生中最糟糕的失败。当我年少的时候,经常有人告诉我,同性恋者是邪恶的,因为他们违反了上帝的法则或自然法则。这些恐同的信念给我带来了很多痛苦。我对自己感觉很糟糕,害怕告诉别人关于我自己的事情,害怕跟其他男人约会,寻求爱情。”
通过对科学和历史的学习和深入研究,他逐渐意识到有关恐同的信念只是人类编造的众多故事之一。“克服恐同症教会了我人生中一些最宝贵的教训。我了解到,区别现实与人类编造的故事至关重要。我还了解到,如果现实与人们编造的故事发生冲突,最好是相信现实。这些教训使我成为一名更好的科学家,因为科学基于区分现实与虚构的能力。”

人:人物周刊 赫:赫拉利
又一个“奥本海默时刻”?
人:2024年的诺贝尔物理、化学双奖都颁发给与 AI 技术相关的科学家。其中,物理学奖得主之一是有“人工智能教父”之称的杰弗里·辛顿(Geoffrey Hinton)。辛顿一直深切关注人工智能技术发展的风险。2024 年 8 月,他和几位科学家撰写了公开信支持加州人工智能安全法案 SB1047,该法案要求公司在训练成本超过 1 亿美元的模型时,必须做风险评估。
在你看来,2024年的诺奖分布对我们意味着什么? 近两年,辛顿教授在公共场合屡屡发表自己对人工智能进展的极度担忧,甚至有强烈的负罪感,这种心态让我想起20世纪那些参与研制原子弹的“曼哈顿计划”的科学家。我们是不是又到了另一个“奥本海默时刻”?
赫:我与杰弗里·辛顿对 AI 有着许多相同的担忧,我认为他获得诺贝尔奖预示着即将发生的事:我们可能很快就会达到一个地步,即诺贝尔奖由从事人工智能工作的人主导。
开发人工智能的竞赛与开发核技术的竞赛之间确实存在明显的相似之处。就像 20 世纪中叶的核技术一样,AI 是我们这个时代的决定性技术。这两种技术都具有带来积极和消极后果的巨大潜力。核能可以为文明提供动力,但核战争能够摧毁文明。同样,人工智能可以创造人间天堂,也可以创造地狱。
尽管存在相似之处,但核技术与人工智能之间存在重要差异。核技术带来的风险很容易理解。从总统到普通公民,每个人都可以很容易地想象到核战争的可怕含义。但使用 AI 时,风险更加难以掌握。这是因为 AI 是第一个可以自行做出决策和创造出新想法的技术。原子弹无法自行决定攻击谁,也无法自行制造出新的炸弹,或制定出新的军事策略。相比之下,AI可以自行决定攻击某个特定目标,并可以创造出新的炸弹、新的策略,甚至新的 AI。
关于AI,最重要的一点是,它不是我们手中的工具——它是一个自主代理,能做我们人类意想不到的事,创造出我们永远不会想到的新想法。当数以百万计的非人类代理开始针对我们做出决定,并创造出新事物(从新药物到新武器)时,人类会发生什么?我们创造出比我们自己更聪明的东西,它们能够摆脱我们的控制,进而奴役或摧毁我们,这真是明智的吗?

信任悖论——最冷酷无情的人或成为赢家
人:辛顿教授得知自己获奖后在一段公开视频中说,他为他聪明而优秀的学生感到骄傲,最骄傲的是他的一个学生(Ilya Sutskever)解雇了山姆·阿尔特曼(Sam Altman)。
2023年底Open AI公司的“解雇门”事件是全球最轰动新闻事件之一。根据后来披露的内容,这实际上是该公司以首席科学家、技术天才伊尔亚·苏茨克维(Ilya Sutskever)为代表的“超级对齐派”(记者注:主张让人工智能系统与人类价值观保持一致),和以CEO 山姆·阿尔特曼为代表的“有效加速主义派”之间矛盾激化的结果。两者分歧在于——在该公司继续前行之前,应该在多大程度上理解他们正在创造的东西。最后,山姆在大股东微软和公司内部高级员工的支持下,一周后就回归了;伊尔亚从公司董事会辞职,并于2024 年 6 月宣布离开他一手参与创办的OpenAI。
你如何看待这一“解雇门”风波背后的深层次问题?伊尔亚从解雇山姆到最后自己黯然离开,这是否意味着——当面对新技术带来的巨大商业利益时,商人总是能战胜有道德担忧的技术天才?如果是这样,未来当人们面对人工智能巨大能量的诱惑,那些不顾一切的野心政客是否更有可能成为赢家,而不是那些有着良心负担、谨慎行事的政治领袖?
赫:这正是危险所在。在这场完全不受监管的比赛中,唯一的限制是参赛者自我施加的,最冷酷无情的参赛者将击败更有社会责任感的参赛者。结果可能是灾难性的。
AI 竞赛的核心存在着一个信任的悖论:人类之间无法彼此信任,但我们却相信可以信任 AI。当我遇到从事AI 开发的领袖人物时,我经常会问他们两个问题:第一,我问他们为什么不顾及AI技术带来的明显风险,行动如此之快。他们给出的回答是:“我们必须更快地行动,因为我们不能信任别人。我们同意这里确实存在很大的风险,最好是谨慎行事。然而,即使我们放慢速度,我们也不相信竞争对手也会放慢速度。如果我们放慢脚步而他们没有,他们就会在AI 竞赛中获胜,世界最终将被最冷酷无情的人主宰。我们不能允许这种情况发生,因此我们必须加快行动。”其次,我问他们是否认为可以信任他们正在开发的超级智能 AI。那些刚刚告诉我他们不能信任竞争对手的人,此时却自信地告诉我他们可以信任 AI。

这真是一个悖论!我们积累了数千年的人类经验。我们对人类心理学和生物学有着广泛了解,还包括人类对权力和地位的渴望以及人类为达成目标而使用的各种技巧和操纵。在如何寻找克服重重困难、建立起人与人之间的信任的方法方面,我们也取得了相当大的进展。10万年前,人类生活在几十个人的小群体中,不信任小群体以外的任何人。今天,有像中国这样拥有 14 亿人口的国家,还有更大的合作网络可以涵盖地球上 的80 亿人口。与我们完全陌生的人在种植、生产我们赖以维持生命的食物,是陌生人在发明能保护我们健康的药物。当然,我们远未完全解决信任问题,世界上仍然存在许多紧张和冲突。但至少我们了解我们所面临的这些挑战。