脑科学与AI:机器还能从人脑中学到什么?

作者:张从志
脑科学与AI:机器还能从人脑中学到什么?0人工智能的目标一直是在机器身上重现人类智能——从语言到感知觉,从推理到决策、执行,乃至自我意识。对人来说,这些能力都蕴藏在人脑这个无比复杂深奥的网络之中,AI能有今天的成就,也是受到了这个网络的启发。那么,机器到底在多大程度上接近我们人脑了?我们自己对人脑的理解又到了什么地步?

带着这些问题,2025年1月,我在上海采访了著名的神经科学家蒲慕明教授,他是中国科学院院士、神经科学研究所首任所长,现任中国科学院脑科学与智能技术卓越创新中心学术主任。2021年,他作为专家组组长筹划的中国“脑计划”正式启动,这也标志着中国加入了欧洲及美、日等国掀起的全球脑科学竞赛之中。这项耗资数百亿元的科研计划,全名为“脑科学与类脑研究”,终极目标就是理解脑的认知功能,彻底揭开大脑的秘密。这项计划支持的一个重点领域是类脑智能(脑启发的人工智能)。在蒲慕明看来,现在的人工神经网络并未真正用到人脑的机制,所以需要耗费大量的算力和能源,而要想实现更高级别的智能,必须从人脑中学到更多、更巧妙的东西。脑科学的快速发展,将给AI的进一步突破提供机会。AI与人脑采用的是不同的网络

三联生活周刊:作为一个神经科学家,你如何看待这一轮快速崛起的人工智能?

蒲慕明:跟以前相比,现在的机器能力确实已经大幅提升,而且还在不断提高。比如在语言能力方面,过去我们一向认为,创造无限开放式的句子的能力,是我们人这种灵长类动物独有的。所以,艾伦·图灵提出,假如让一个机器跟你对答,你分不清它是机器还是人,就可以认定这个机器具有人的智能。图灵那时候是把语言当作人的智能的唯一标准。我看ChatGPT这样的语言大模型,很快就可以大致通过图灵测试。但机器要想达到人类智能的水平,光有语言能力是不够的,还需要有所谓的具身智能。因为人的很多能力,包括动作、眼神、表情、社交行为,都是可以传递信息的。比如我跟你谈话时,脸上的表情发生变化,你可能就知道我的想法也有变化。此外,机器还要进行社会交流。比如我们的医疗养老体系现在很需要所谓的看护机器人,它不能只是给你送东西那么简单,还要能和你交流,在你想起床时能正确地扶你起来,而且知道你的病是什么情况,了解你的生活习惯。

三联生活周刊:现在的AI所采用的人工神经网络被认为是模仿我们人脑生物神经网络的结果,在大量数据、算力的支持下,能力还在快速增强。从运作的机制来看,AI的人工神经网络跟人脑的网络已经很接近了吗?

蒲慕明:事实上,人工智能从神经科学领域学到的只是一些名词和概念,它的那个人工网络跟人的神经网络大不相同。最重要的一点,现在主流的人工神经网络一开始都是全连接,而且一般都是正向连接;它的架构还是多层面的,有几十层甚至几百层之多。我们人的大脑部分脑区好像也有层面,但是它不可能像人工网络那样用几百层去处理信息。大脑是将浅层网络所形成的环路组(module)进一步连接到一起形成更大的环路。这种嵌套式(nested)(即“环中带环”)的系统组成了复杂的信息处理和存贮网络。这种网络结构就没有应用到人工网络里。

人工智能领域现在有种观点,认为它不需要像人脑那样的结构,只要有大量的算力,可以在几十亿到几百亿的参数基础上去调整神经网络连接的权重。你输进去的数据越多,网络可以调整的空间就越大,机器就可以更加智能。比如语言的学习,机器的做法就是用已有的大量文本数据去调整网络连接的参数,训练网络去记住文字间的关联性,学会猜一个字后面最合适跟随的下一个是什么字,但这显然不是大脑的方法。

为什么大模型需要这么大的算力,就是因为它是以一种无序的、多参数的全连接网络来开始学习的,这需要极大规模的数据来慢慢训练,训练的过程很耗能。这个是大模型现在面临的最大问题。所以可以说神经科学对现在的人工智能没多大贡献,还没有对提高人工网络的运算效率和能力有所贡献。脑科学与AI:机器还能从人脑中学到什么?1三联生活周刊:那按照人脑的机制,我们是怎么学习的?

蒲慕明:人一出生的时候,大脑就已经形成了一个初步(起始)网络,它是一个有组织的、能对多模态信息进行有效整合,并能有效激活运动系统的网络——这是很关键的。人脑的这个初步网络是演化过程中通过遗传基因表达程序所形成的,它有次序,对外界事物有简单的反应。比如刚刚出生的婴儿,你推他一下,他会有反应;你去逗他,他会笑,但他不是认得出你的面孔,而是出于一种与生俱来的能力。但是人跟羊不一样,羊一生下来就会站起来走路、喝奶、吃东西,它的基本智能在胚胎里面就形成了,这也是演化的结果。假如它像人一样处于baby(婴儿)状态,很长时间不能自己行动,早就给其他动物吃掉了。

在生物学上,人有个特殊的演化现象,叫作发育延迟(Neoteny)。人类婴儿要到两岁之后才能好好走路、学会说话,但还不能处理复杂的事情,大脑还在不断地发育。让大脑发育的过程延迟是一个非常巧妙的演化机制,也是人之所以为人的最关键的一点。这也造成了所谓的长期幼年时期(long childhood)。

人为什么要一个长期的幼年期?就是幼儿需要在环境(尤其时父母)的引导下学会各种各样的动作和智能。你刚出生的时候不会走路,你要先学会在地上爬,学会摔倒之后怎么样站起来。这个过程,人脑的神经网络就在快速地、大规模地产生,同时又通过学习不断进行修饰,有些没用的连接要删除,有些合适的连接要加强,才能形成正确有效的网络。从幼年期一直到青春期,我们神经突触的总量都是在不断上升的,反映网络整体连接数和复杂性的增加,也反映了一个人各种智能的形成。

语言也是一样。我们人要到六七岁以后,语言能力的网络才构建完成。在六七岁之前你不学语言,就可能永远也学不会人类语言,可能像黑猩猩一样能学会几百个字,知道这些字对应的意思,但是无法把它们凑成长句。我们都知道狼孩的故事,一个小孩如果是被狼养大的,他就失去了学会人类语言的能力,不会说话,就是因为他生长的环境没有给他训练的机会。

三联生活周刊:所以,可以说人脑当中存在一套先天的语言结构吗?

蒲慕明:应该说人脑具有在幼年关键期(6、7岁前)建立语言网络的能力,在关键期不学习语言,就不可能建立语言网络,也就没有语言能力了。每一个人出生后都要面对不同的外界环境,要学习相应的技能。我们可以把大脑网络看作一个建筑,我们从父母那里遗传下来的基因是一堆建筑材料,这些材料是没有很好的结构的,而外界的环境是建筑师,要把这个先天遗传的材料建成一个建筑。没有建筑师,就没有建筑,没有完整的材料,也没有建筑。两者都是必要的,不是说哪一个特别重要,两者都重要,都是百分之百重要。

语言能力是人类特有的,语言网络也是人类特有的网络,这是乔姆斯基的说法。很多实验表明,人类婴儿期能够识别出很多音素,有比较好的发音能力,但其实这不等于他已经有了语言能力,音素还只是语言的基本元件。所以我不认为人脑里预设了一种语言网络结构,一出生就有,但我们可以说语言功能只有人类可以演化出来,因为人出生时就有了一个特殊的起始网络,这个网络可以在出生后的关键期形成语言网络,但要是没有后天的语言输入,语言网络也不能形成。脑科学与AI:机器还能从人脑中学到什么?2三联生活周刊:我看到有种说法是,我们目前对人类大脑的了解程度还不到10%,这种说法准确吗?大脑对人类来说仍然是一个“黑盒子”?

蒲慕明:我不知道10%是怎么估计来的,但反正是很少。我们的大脑到底有多大能力,我们使用了多少突触来做所有的功能,我们仍不清楚。我们只是知道大脑网络可使用的容量很大,可能远大于我们现在所需要和使用到的容量。

三联生活周刊:那我们现在了解的主要是哪些部分?

蒲慕明:我们知道大脑大致上的网络结构,比如有多少个脑区,这些脑区大致在做什么事情,还有脑区间的连接大致是什么样,但是这些连接的细节还不清楚。我们现在连大脑里面有多少种类的神经细胞(神经元)都没搞明白。这个事情很重要,因为一个细胞跟另一个细胞不一样,那就可能是在发挥不同的作用。现在有的人说大脑里有上千种不同的神经细胞,但我的判断是至少有几百种。这就要看你怎么分类。

我们最近在做猴脑的细胞分类,方法是用基因转录组测序,看有多少种mRNA是相似的。假如两个细胞所表达的mRNA种类大致相同,我们就判断它们是同一类细胞。mRNA是合成蛋白质必要的分子,而蛋白质决定了细胞的功能,所以你知道了mRNA的种类,就大致知道了蛋白质的种类,就可以给细胞进行分类。用这种分类方法现在可以很简单地分出上千种细胞,等将来基因测序技术更精确了,可能可以分出几万种,因为每一个细胞的基因所表达的mRNA的种类和量都不完全一样,但你不能说每一个细胞都是一类,那样研究就没法做了。所以现在我们还需要一个更好的细胞类型的定义标准。

三联生活周刊:搞清楚了细胞种类可能还不够?

蒲慕明:是的,我们要知道大脑是怎样工作的,还得把神经元之间的连接搞清楚。这也是目前神经科学领域面临的最重大的问题,我们叫作全脑连接图谱。我们都知道以前的人类基因组计划,是要把所有的碱基序列测出来,这样你就能理解基因到底有多少种类,在此基础上,可以进一步研究不同基因之间的关系是什么,如何有序地调控它们的表达。这给生命科学带来了巨大的飞跃性的发展。基因组学是研究基因的组成和在DNA上的分布,细胞图谱是研究大脑里面有多少种细胞、它的分布是什么样的,而连接组学就是要弄清楚各种类型的细胞之间的连接是什么样的。一个神经元可能连接了几千个其他的神经元,你要知道这几千个细胞是哪些类型,在哪些脑区。

2023年,我们已经把猴的大脑皮层的所有神经细胞用转录组分了类,并鉴定了它们在各个皮层脑区的位置,做出了皮层细胞分布图谱。今年,我们马上要发表的是猴子部分大脑前额叶的细胞的轴突投射图谱。这个过程我们用到了海南大学校长骆清铭教授团队的单细胞追踪技术,就是要追踪一个个细胞的轴突,看它投射到了哪些脑区的神经细胞。这个过程非常繁琐。每一个单细胞都要花至少几个小时的时间,而且一个人做出来可能还有错误,要好多人在一起追踪。我们现在有合作的外包公司,有个几百人的团队在帮我们追踪,研究人员还要最终来确定他们出来的图对不对。2024年,我们在《科学》杂志上发表了上万个小鼠海马体神经元的全脑投射规律图谱。这么大规模的研究成果,在国内外都是第一次。脑科学与AI:机器还能从人脑中学到什么?3三联生活周刊:只要把每一类细胞的连接组弄清楚了,全脑的连接图谱就可以做出来了吗?

蒲慕明:大致上是这个路径。假如我们分出来1000种类型的神经细胞,能把这1000种细胞的全脑连接搞清楚就差不多了。这个方法已经建立了,就是要花人力、物力持续地去做。这个过程就好像你想理解一个芯片是怎么工作的,就必须把它的线路图搞清楚。一块芯片上面有几十亿甚至几百亿个晶体管,里面是怎么连接的,你没有线路图的话,这对你来说就是个“黑盒子”。大脑也是一样,要理解它的工作原理,就一定要把连接图谱搞清楚,只有这样,我们才知道它的多感觉整合是怎么出来的。芯片里的线路是工程师设计的,大脑的网络连接是演化和发育过程形成的,理解人脑的网络也可说是一个逆向工程(reverse engineering)。解析了人脑网络结构之后,我们才能理解人的智力是如何通过神经网络来实现的。然后,我们也可以进一步在人工神经网络上去模拟人脑网络的架构,赋予人工智能与人类相似的智能,如高效的多感觉信息整合能力。

三联生活周刊:你说的多感觉整合是怎么一回事?

蒲慕明:脑科学对这个问题已经有相当的进展,但也还没有完全理解。比如我们开车,你在虚拟环境下开车给你的信息反馈和在真实环境下开车是完全不一样的。在真实环境下,你握着方向盘,手里会有触觉,你耳朵能听到各种声音,你的前庭系统(前庭系统在内耳中,是人体平衡和空间定向的关键部分)会告诉你方位、加速度等。这些感觉是你坐在那里玩游戏没有的。人的大脑能够把这些听觉、视觉、触觉、前庭信息全部整合在一起,最后转换为决策和执行力,所以才能在真实世界开好车。

现在讨论很热烈的具身智能,我认为最关键的一点就是要把多感觉整合,能把包括视觉、听觉、触觉,自身位置的本体感觉等快速整合成一个整体的感知,然后跟语言能力结合在一起,对外界信息做进一步的解析,然后做出反应。从感觉到感知,然后做出抉择,再到执行,跟环境之间形成闭环的交互网络。把基于语言大模型的软件系统与基于物理过程的硬件系统结合起来,比如制作出有具身智能的人形机器人,是现在的人工智能往前发展面临的最大挑战。模拟大脑:AI进化的路径

三联生活周刊:随着我们对大脑了解程度的加深,人工智能有可能在哪些层面上从中得到新的启发?

蒲慕明:我觉得有两个最基本的方向。一个是在算法层面,要推动创造新的算法。反向传播算法是现在深度学习中用得最多的,还有其他比如强化学习、非监督式学习等算法,但这些算法都很少真正用到大脑的机制,只是一些粗糙的概念应用。现在,我们需要把更多的脑科学发现的原理和机制,比如多类型的兴奋性与抑制性神经元、多种局部性和扩散性的神经突触可塑性、起始网络的多样性和可修饰性,用到人工智能的学习算法中。

大脑中的信息是通过神经脉冲的频率和时序来编码的,也就是说脉冲出现的时间和顺序本身就带有信息。这种编码机制现在的人工神经网络中只有脉冲神经网络才可以充分使用。我们与中国科学院自动化所的合作,已获得证据表明,脉冲神经网络能更有效地学习处理带有时序信息的数据,使用较低的算力就可以达到其他非脉冲网络的相同效率。但脉冲神经网络的学习算法研究进展很慢,目前很不成熟。虽然我们2030重大项目(“中国脑计划”)的正式名称是“脑科学与类脑研究”,但只有很少的经费真正使用在类脑研究。即使有些类脑研究项目以类脑为目标,实际上也不是真正在做类脑研究。在算法上做出新的类脑算法不容易,不是很快就可以得到成果,不容易出论文。

第二就是网络架构层面,要研发新的人工网络架构,加入网络的多样性和可变性,不要从同等的全连接开始。大脑一开始就不是全连接,演化过程中已赋予大脑最初起始的神经连接就具有相当的特异性。加上出生后的经验和学习,将起始网络和出生后生长的连接进一步修饰成为具有高智能的网络。从小到大,大脑受到来自环境的大量数据的训练,所以能够造就那么复杂、极为节能又因人而异的大脑。现在基于语言大模型的人工智能是非常耗能、不可持续发展的,我们需要的是绿色人工智能。怎么能做到?要模拟大脑那样的网络架构,能以极低的能耗产生复杂的功能,网络架构是关键。

现在已经有人开始想做这件事情,想把人工神经网络变成一种稀疏网络,意思就是我们不要每次计算时去算每一个连接的权重,长期不使用或权重长期偏低的连接可以不考虑或消除,因为每次连接的权重计算就要消耗能量,这就类似于人脑消除冗余或不适用连接的过程。有的连接的权重在学习时如果不断加强,应该有进一步的巩固强化机制,如不受权重天花板的限制,选择性地增加该连接的权重范围,相当于对某些记忆的巩固。大脑网络学习的一个重要特性就是短期记忆转换为长期记忆,没有必要记住的信息(如今天地铁上见到的所有面孔)需要让它消退,有些信息则需要长期存贮(如经常要见到并能识别的面孔)。人工网络的记忆(连接权重的改变)应能赋予短期和长期记忆的区别、短期记忆转化为长期记忆、记忆的自然消退(decay)与有目标的“清除”(extinction)等等的机制。脑科学与AI:机器还能从人脑中学到什么?4三联生活周刊:人工智能兴起之后,我们发现人类智能突然有了一个参照物,机器好像也像我们一样在学习和理解这个世界。随着AI的发展,未来机器和人的界限会不会越来越模糊?

蒲慕明:你想想,假如未来一个机器表现的行为像人一样,有意识,有同情心,有共情心,有人一样的决策和行为能力,你还会只把它看作是机器吗?按照图灵的定义,它就有了人的智能。从智能的表型来说,未来机器人与人类会越来越接近,表型上的界限会越来越模糊。当然,机器智能的来源机制与人类大不相同,它用的是硅基材料,而人的智能源于碳基材料。如果它具有与人类相同的智能,人类与机器的差别只能说是制作材料的不同而已。在这一点上,人类是没有优势的。在艾萨克·阿西莫夫(Isaac Asimov)的科幻小说《我,机器人》中,机器人就对人不屑地说:“瞧瞧你自己,你是如此的脆弱!”

三联生活周刊:现在包括辛顿在内的很多人就认为,人脑未必存在更优的机制,换句话说,AI的发展不一定要完全按照大脑的模式来。

蒲慕明:如果你的目的只是要赶紧挣钱,就不需要学习人脑的方式。如果你的目的是要达到一种高级智能,你也不一定要学人脑。只要你有足够的能源,有足够的算力,有足够的数据,也许也可以达到同样的效果。但是如果你还关注到AI对社会的持续发展和对人类环境的影响,你就需要考虑到目前AI大模型的能耗需求。美国几个AI巨头公司所规划的、每个耗资数百亿美元的AI大数据中心用的都不是绿色能源。再说,我也不认为只有增加算力才能发展AI,发展高效节能的AI才更合乎社会的需求。但说到底,这是一个信念问题。

三联生活周刊:那机器有可能沿着这条路径产生意识吗?

蒲慕明:我们首先要搞清楚意识到底是什么。对神经科学家来讲,自我意识只是多脑区大群神经细胞的一种特殊的电活动。这个是我们完全可以理解的现象。意识也包括多种内容。对外界世界的感知,能理解外界的事物,这叫能获取感知的意识(conscious access)。我意识到我今天看到的面孔是你的面孔,这种能力是机器也可以做到的,只要你给它足够的训练,它就可以认识你的面孔,甚至可以认识所有跟你相关的事情。意识的内容也包括意识状态(conscious state),也就是大脑能处理信息的网络活动状态。清醒时具有的“意识状态”,在睡眠、麻醉、昏迷时有不同程度的丧失。还有一种意识,就是“自我意识”(self-consciousness)。我跟你讲话时,我知道是“我”在跟你讲话,有一个“我”在那里,这也是哲学家所说的反思式的自我存在意识(reflective self-awareness)。你说机器有没有这种自我意识?像我们一样可以感觉到自己的存在?哲学家认为机器不可能存在这种高级的意识状态,但是如果只是从自我意识所表现出的行为来说,我们确实是有可能训练出这样的机器的。

以前在行为学研究上判断一个人有没有自我意识,会做一个镜像实验。在一个人不知情的时候往他脸上偷偷涂点东西,然后让他去照镜子,等他通过镜子看到了他脸上有东西,是否会用手去摸。如果他会做出这种行为,就表明他认得镜子里面是他自己。科学家就用这个标准来判断小孩子是什么时候产生的自我意识,最后的结论是,一岁半以前,绝大多数小孩都认不出镜子里的自己,但两岁以后,绝大多数的孩子就能认出自己了。

多年来,猕猴是不能通过这个镜像实验的,所以行为学家都认为猕猴是没有自我意识的。我们前些年做了一个实验,是让猴子坐在镜子前面,固定它的头,只能看前面镜子上的影像。然后在它头后面两个板上打激光点,只要它能用手摸到镜中的激光点就可以得到奖赏。参加实验的猴子一开始不知道镜子里面那只手跟它自己是什么关系,有时候,猴子的手碰巧碰到了激光点,得到了奖赏。慢慢地,它就开始察觉到镜子里的手的位置和自身本体感觉到的手的位置是对应的,也就是它把自身的感觉跟镜子的影像联系到一起了。训练几个星期之后,绝大多数的猴子就能认出镜子里的自己了,这时候你往它脸上涂点东西,它在镜子里看到了,就会用手去摸一摸自己的脸,有时候它还会用镜子照一照自己背后看不到的地方。

以前我们认为猴子是被训练出了自我意识,后来发现事实上可能它原来就有自我意识,只是它不知道镜子里的那只猴子对应的就是它自己。换句话说,它学会的能力其实是一种多感觉整合能力,让它能够把镜中看到的视觉影像跟自身的位置(本体感觉)整合起来。我知道我的手放在什么位置,手上的信息会传到大脑里面去,这叫自身本体感觉,这个信息跟视觉信息连在一起,你就知道假如我眼睛看到镜中在动的手,跟我感觉到的自己的手是完全对应的,我就知道那是我自己。

三联生活周刊:等于说猴子的先天结构里就存在某种意识,只是它没有办法把这些信息整合到它的认知功能里面?

蒲慕明:是的。比如有严重自闭症的孩子,在镜子面前做这个往脸上涂东西的测试,他就认不出他自己。还有老年痴呆症的患者也一样,他可能会跟镜子里的自己讲个不停,不知道那里面正是自己。

三联生活周刊:如果人类将来完成了全脑连接图谱,理解了我们的认知、思维、情感乃至意识对应的大脑机制和原理,很多哲学上的讨论似乎就不存在了。人的存在是不是就和机器的存在一样了?

蒲慕明:你说这是好事是坏事?科学的历史就是不断解密未知的、神秘的事物。有人认为我们不应该解密,我们的“自我意识”是不能够被碰触的神圣的东西,或者是不可被理解的东西,但是对科学家来说那也是一个自然现象,也可以去找到它的物质基础,就像物理学家在找他们认为一定存在的暗物质一样。最后,我们可能发现意识本质上也不过就是些更复杂的电活动,跟我们想吃饭、睡觉时的电活动没什么本质差别。AI可能没有给人留下足够的适应时间

三联生活周刊:我们都说人是一个学习的物种,一个能够自我教育的物种,但AI到来后,机器表现出来的学习能力在很多方面都超过了人类。对此,我们的教育体系应该怎么办?

蒲慕明:人工智能的时代来临,会出现很多高智能的机器,它可以在很多事情上取代人,这已经开始成为现实了。你现在去问一下做人工智能的公司,很多初级、中级程序员都不需要了,只有高级程序员还留着。因为高级程序员比大模型做的程序还是要高明,但未来谁知道呢?现在大部分会计师做的工作机器也都可以做了,法律资料收集也没什么人比人工智能更快。在化学领域,你要合成什么东西,现在也有AI帮你设计,它甚至做得比你更快、更准确。根据保守的预测,未来10年里,人类职业可能有50%要被机器替代。我们的教育体系再去批量地培养程序员、会计师等等,将来到了社会上可能就不被需要了。所以,教育模式和理念都必须做出改变。

首先,大学里的很多专业要进行调整,人工智能相关的课程和专业要大幅度增加。其次,大模型出现后,教育一定不能再只是学专业知识和技术。你可以学一个专长,但是你的目的不能再只是学会知识和技能,而是要通过它来训练自己学习一门学问和技能的能力。你毕业之后要随时做好换专业的准备。

我们说教育要创新已经说了十几二十年了。创新教育不是老师直接给学生灌输知识,而是要激发学生的主动性,鼓励他们自己去探索、思考。老师的定位也要变,不应该再扮演一个权威的知识传授者,只是告诉学生应该学什么,什么是对的、什么是错的,而是帮助学生自己去探索和辨别真伪。

三联生活周刊:还有很多人关心一个问题,当这一代孩子的成长过程是沉浸在一个AI围绕的环境之中,会不会给他们的身体,特别是大脑的发育带来一些不利的影响?

蒲慕明:这个问题确实是我们现在就应该考虑的。当我们的生存环境存在大量的人工智能,我们接触的很多其实是虚拟环境。这种虚拟环境,对大脑的确存在负面的影响。

我刚才举了开车的例子,在虚拟世界里开车是场景往后头转,但人不是往前动的,这时候人的感知觉系统里有些感知觉是没有用到的,你一直靠的都是视觉的光流信息。一个人如果是在这种环境下学会的开车,其实会影响他在真实世界开车的技能。因为在真实世界中,人不能只看光流,要利用各式各样的感知觉信息,包括人的视觉、听觉、手的触觉、本体感觉、自身运动的前庭感觉信息等等。人的这些能力是要在不断使用中巩固、强化和维持的,你要是老不使用它,它就会慢慢弱化、消失。

未来的世界虚拟信息包围我们的时候,我觉得一定会改变我们人类处理真实世界信息的能力。很多虚拟信息我们可能信以为真,它逐渐就会改变我们的大脑结构,削弱我们的某些辨伪能力,最后可能真的假的就分不清了。人的大脑最重要的功能是什么?就是在生存的环境中做出正确的判断,来适应不同的变化。因为人工智能导致虚拟信息的大量侵入,使我们丧失在真实环境中的适应能力,这对未来人类的生存和发展来说是个严峻的考验。

现在我们就在做一个实验,让小鼠在一个虚拟世界走迷宫,小鼠学习走了以后,再让它去走真实的迷宫,看它的能力和未经历虚拟迷宫之前的能力有没有差别。这实验还没有做完,但我相信很可能是有差别的。小鼠在虚拟世界待久之后,它在真实世界辨别信息,也就是找路的能力会下降。

三联生活周刊:现在教育界也在讨论AI强大起来后,会不会导致人类认知能力的退化、幼稚化。但这不是个新问题了,每一轮新的技术变革,都会有类似的担忧出现,但人类似乎总能找到适应的办法。这一次,会有所不同吗?

蒲慕明:当然,你也可以说在AI环境下成长起来的人就是新一代人类,我们也没办法。人工智能是不可阻挡的潮流,未来的世界就是除了一个现实的世界,还有一个虚拟的世界。我们人就要在这种环境下生存,要演化出适应这种环境的能力。但是问题就在于,很可能我们没有足够的时间去慢慢演化。如果人类对虚拟信息和真实信息分辨不清楚,设想一种极端情况,比如到了核战危机时,要有个人出来决定是否按那个按钮,如果这个人不能判断信息的真伪,人类就可能走向灭亡了。

三联生活周刊:这也跟人工智能发展太快有关系?

蒲慕明:当然,AI现在发展的速度超出了很多人的想象。但技术的发展需要有正确的价值观的支撑。如果不是从人的角度来发展新科技,就会存在问题。我们一定要“AI for human”,而不是“AI for AI”。为了人的话,应该赶快做出一些对人有用的东西。那些对AI的发展有远见的人,比如辛顿(Geoffrey Hinton)这样的专家,他们知道未来可能存在的问题,要能够出来说话,改变政府的政策,改变企业的走向,使AI的发展更趋于为人类服务,而不是任凭AI的无序发展。

三联生活周刊:神经科学的发展能为此做些什么?

蒲慕明:在几年前的上海科技节上,有个节目主持人就问我,“你希望神经科学的发展能够达成什么对社会有贡献的目标”,我回答说是应该能帮助增强人类社会的共情心。这个社会要持续发展下去,人们一定要有共情心,我们现在出了很多问题就是缺少共情心,你觉得别人的苦难跟你无关。我们的大国竞争、战争、饥荒、环境危机,很多问题的来源都是缺少共情心,人们不关心别人的死活。

共情,可能是人类特有的脑功能,也是非常重要的一个功能。有人说猴子也有共情心,有一只猴子要死掉的时候,常常有另外的猴子跑到旁边去触摸它、安慰它。但人类的共情是一种复杂得多的机制,我们可以把别人的痛苦,当成是你自己的痛苦,能够换位思考,去理解别人的想法,能据此来控制自己的行动。共情心的产生和维持很可能与社交行为直接相关。如果一个小孩子长期是跟机器玩,不跟人交流,久而久之,可能就会缺乏共情心。所以保存和增强共情心应是教育的一个重大的目标,要给孩子们创造更多与人接触交流的机会和环境。 人工智能AI神经科学蒲慕明