薛澜:AI治理如何跟上技术进步?
作者: 霍思伊 曹然所有事情都可能被人工智能(AI)重塑,包括事实。
国际象棋规则突然“更新”了,小兵可以轻松吃掉皇后。近日,美国知名国际象棋博主Levy Rozman让DeepSeek与ChatGPT进行了一场终极对弈,由于伪造了新规则,DeepSeek最终让自己“获胜”。
当人们向大模型寻求帮助,AI总是会“努力”给出逻辑清晰的答案,有时甚至会提供详细数据,但如果进一步询问某个具体数据的来源,它会回答:“我在此前的回答中出现了错误,对此我深表歉意。”然后,它给出了另一组数据与材料。再追问,这又是在“胡说八道”。
这就是AI幻觉:大模型在遇到自己知识范围之外的问题时,凭空编造看起来合理或可信的信息。
随着DeepSeek的横空出世,我们已经正式迎来大模型应用的“黄金时期”。但随着AI应用逐渐渗入社会与个人生活的方方面面,AI安全风险也会激增,幻觉、深度伪造、数据泄露,甚至是失业……技术是简单的,但人是复杂的,当技术与人开始深度交互,人类是否已做好了充分的准备?
近日,围绕AI发展带来的种种安全风险与治理难题,《中国新闻周刊》专访了清华大学文科资深教授、国家新一代AI治理专业委员会主任薛澜。
如何治理“胡编乱造”“深度伪造”
《中国新闻周刊》:都说“大模型的幻觉是刻在基因里的”,但在医疗、法律等对准确性要求极高的领域,AI如果胡编乱造信息,可能会引发严重后果。随着AI的大规模应用,AI幻觉带来的风险事件可能会呈现爆发式增长。这个问题该如何破解?
薛澜:就现有技术来看,AI幻觉难以完全避免,但在技术层面上并非没有优化的空间。我们可以采用数据质量改进、模型层改进、系统层控制,和其他措施使得它出现幻觉的概率降低。
政府应该制定一套AI安全性标准与监管体系。在一个AI系统大规模进入真实场景前,需要首先检查该系统是否满足安全性要求,然后才允许上市。在涉及生命安全等敏感领域的应用中,比如医疗场景,尤其需要这样的安全性检测。当然,检测的标准必须与AI的具体应用场景紧密结合。
在国家层面制定相应的法律法规很重要的就是要对技术的收益和风险进行合理的平衡。例如,在医疗领域,假设未来AI在判断的准确率上超过了人类,是否应该以AI系统的判断为准,不再让医生参与决策?那么,如果因AI幻觉导致严重的医疗事故,责任应由医院还是AI开发者承担?
这个例子告诉我们:当AI在一些关键领域大规模应用落地后,责任体系划分的困境将很快凸显出来。就这个具体场景而言,我们的选择不应该是简单的人或机器。而应该考虑第三个选择,就是人机协同,让AI协助医生诊断,即使AI系统的准确率更高,仍然让医生参与最后的诊断决策。
在责任主体难以划分的情况下,一种可行的解决办法是:为AI开发者和使用者(如医生)提供某种职业保险。
比如,可以参考疫苗不良反应的处理机制。疫苗在疾病防控方面发挥了关键作用,但注射疫苗后,会有极少数人出现不良反应,甚至死亡。因此,一些国家设立了疫苗伤害补偿基金,向受害者提供救助。在AI应用领域,也可以设立类似的技术风险基金,或建立某种社会保险制度,避免让技术开发者和使用者单独承担风险。
《中国新闻周刊》:如果说“幻觉”是AI无意识的犯错与欺骗,深度伪造就是人类主动利用AI技术进行诈骗,后果往往更为严重。有统计显示,2024年全球发生的AI风险事件,30%都与深度伪造相关。如何通过法律制度和监管体系的规范来约束此类滥用AI的行为?
薛澜:AI深度伪造现象层出不穷,是因为造假成本过低,追查和执法成本却非常高。这种“不对称”使一些人铤而走险。
AI自身的性质决定了滥用AI犯罪造成的后果很难客观估算,在法律层面就难以设计对应的惩罚力度。过大会引发司法界的质疑,过小则会宽容造假。我国虽然有一般性的法律法规打击AI滥用行为,但总体惩罚力度不大。2024年9月,国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》,首次对AI深度伪造作出了一定规范,要求AI生成的合成内容,应当添加显式标识和隐式标识,未进行标识造成严重后果的,要予以处罚。但具体是什么惩罚、哪些情况适用于何种惩罚,尚未得到明确。标识本身也可能存在各种漏洞和被操纵的空间,能起到的预期作用尚值得商榷。
AI与其他一般技术的应用和扩散不同,其技术变革很快,应用场景非常丰富,人机互动方式也很多样。未来AI滥用带来的问题可能会更加复杂与多元,我认为,除了国家层面要出台一些原则性规制,社会和企业也需要在实践中不断调试和探索,对政府层面的规则进行补充。
既要获取数据,也要保护隐私
《中国新闻周刊》:DeepSeek横空出世后,由于其高性能、低成本以及完全开源的特性,越来越多的企业开始部署DeepSeek,大模型“基建”开始渗入各行各业。但是,有统计发现,企业部署DeepSeek时,近90%的服务器都没有采取安全措施,这会带来哪些隐患?我们该如何应对?
薛澜:首先,企业部署大模型后如果不对数据安全问题进行相应的检查,有可能造成内部数据泄露的风险。尤其是一些企业需要大量算力,不得不使用公有云。如果不采取安全措施,数据就可能被泄露或被篡改,甚至被竞争对手利用。
其次是应用风险。就像我们刚才提到的医疗应用场景,一旦AI系统的数据出现问题,可能会加重“幻觉”,甚至在使用时影响到病人的生命安全。因此,企业在使用开源的AI大模型时,如果面向广大消费者,一定要主动制定更高的内部技术审查标准,对技术的应用进行严格监控。
《中国新闻周刊》:目前,AI数据治理的核心挑战是什么?如何破局?
薛澜:我国AI数据治理的一个重要瓶颈是缺乏高质量数据。AI需要通过大量数据学习来提升能力。数据越多,数据的质量越高,系统的能力就越强,未来出现“幻觉”的可能性就越小。
然而,在中国,标准化的数据服务商相对较少,数据量虽然很大,但质量较低。如何构建一个完善而成熟的数据市场,是我们迫切需要解决的问题。只有数据行业快速发展,才能支撑AI应用的大规模落地。
另一个重大挑战是数据隐私。有些领域如自动驾驶,数据获取相对容易。但在医疗、教育等领域,数据获取难度较大。
总之,一旦进入具体的应用场景,当涉及个人数据隐私问题时,获取数据就可能遇到各种各样的阻力。如何实现数据收集与隐私保护的平衡,是AI数据治理需要考虑的关键问题。
此外,政府手中掌握着大量的公共数据,这些数据涉及社会运行的方方面面,对训练AI有很高的价值。目前,公共数据的开放程度还不够充分。未来,随着AI应用的普及化,各级政府需要考虑在保证安全性的前提下进一步扩大数据开放。
《中国新闻周刊》:你一直强调AI治理要结合具体的应用场景。如何才能根据不同的应用场景,采取更具针对性的治理措施?
薛澜:AI与人类的交互非常复杂。特别是AI应用于日常生活场景,与应用于工业化场景有很大区别。在工业化场景中,因AI失误造成的额外成本大多可以提前估算和分析,也更容易制定相应的解决方案。但人与机械化的生产系统不同,人的情绪和反应是多变的,与AI系统的互动方式也是多样化的。当AI涉及与人相关的服务时,就会面临很多不确定性。
以教育场景为例,将AI用于学生的日常管理,是一种应用的趋势。有些学校引入了AI课堂行为管理系统,通过教室内的摄像头观察每个学生的细微表情变化,再通过AI系统分析和判断学生是否积极参与课堂学习。有的家长认为这种管理侵犯了孩子们的隐私,有的家长却觉得这种做法很好,让他们找到了孩子学习不好的原因。有的校方还认为,教室属于公共场所,不存在隐私侵犯问题。这是一个典型的“AI+教育”引发的治理问题。其难点在于,从家长、学校到教育学者与法律专家,人们对这一问题的看法往往有很大区别。
再以医疗场景举例,如果患者情绪不佳,在自诉症状和行为表现上就可能出现异常,这是否会导致AI误诊?AI在下诊断时能否考虑到非医疗因素?这些问题都需要认真思考,并融入对应的治理方案中。
未来,在越来越多的AI现实场景中,我们可能会遇到各种各样的复杂问题,这些问题不是凭空想象就能想出来的。这就是我为何一直强调AI时代的敏捷治理模式:在实际应用过程中,一边出台政策,一边试行,不断探索发现新问题,再相应地修改和完善规则,健全相应的治理与监管体系。这个过程中,不需要追求制度设计的一步到位,更关键的是如何实现技术发展、风险防控与治理模式之间的有效平衡。
要更多关注系统性社会风险
《中国新闻周刊》:当AI应用进入“黄金时期”,生产效率提高的另一面,人们担心越来越多的人工岗位将被AI替代。如何解决AI大规模应用可能引发的失业风险?
薛澜:AI广泛应用的结果是大量节约劳动力成本,特别是脑力劳动力,这对白领就业的影响可能是巨大的。如果这种变化在短时间内集中发生,就可能引发社会动荡。当然,从技术扩散的客观规律看,我们不能期望所有人都去同步拥抱新技术。这种情况下,如何让AI应用的扩散更加平稳,如何采取措施,为那些在社会转型中处于不利地位的群体提供兜底保障,是政府当下需要迫切解决的一个问题。
例如,此前武汉发生的“萝卜快跑”无人出租车引起争议,地方政府也许就需要通过合理的政策进行引导,以减少无人驾驶技术应用对传统出租车行业产生的就业冲击。我认为,新技术的推广要循序渐进,先从市场供给不足或不畅的地方入手。比如,在传统出租服务中,有些比较偏远的地方,普通出租车司机不愿接单。从这样的特定场景入手,将无人驾驶技术作为一种补充性手段,可能短期内对就业的影响就不会那么大。同时,也可以积累更多数据,以确保未来大规模应用时的安全性。
一直以来,我们更关注AI误用、滥用等当下的安全风险问题,对AI可能带来的长远的社会系统性风险,如失业问题,关注度仍显不够。下一步,可以通过创新社会治理方式,来适应AI带来的社会性冲击。
在这一过程中,政府应更多地倾听社会各界的声音。在平衡AI带来的风险与收益时,我们需要营造一种理性、平和的讨论氛围,最终对如何平衡达成共识。一定要清醒地看到,这种共识不应仅仅是来自专家或政府的共识,而应是全社会共同形成的共识。
《中国新闻周刊》:多年来,你一直强调AI治理主体的多元化与分工协作。随着AI的大规模应用落地,政府和企业在AI治理中分别扮演了怎样的角色?如何优化不同主体间的分工合作?
薛澜:当我们谈论“治理”时,这个词往往被理解为政府规制企业。但在AI领域,由于政府、企业都很难提前看到技术发展和应用过程中可能出现的风险,双方不应再是传统的“猫和老鼠”关系,必须加强双向的沟通与合作,共同识别和应对风险。政府应保持开放态度,主动与企业沟通和协商,分清哪些AI应用的领域可以接受一定风险,哪些领域的“红线”不能碰。
我想特别强调的是,企业也可以在AI治理中发挥重要作用,需要更主动地采取措施,自我规制,并与政府沟通,告知潜在风险。目前,大型头部企业在AI治理上表现得比较积极。例如,阿里巴巴、腾讯等企业都设有内部的AI伦理委员会,并建立了针对自身产品的伦理审核机制。然而,随着DeepSeek的大规模应用,越来越多的中小企业进入AI应用领域。这些中小企业是否有能力像头部企业一样参与治理并建立相关机制, 值得关注。未来,还需要推动在行业层面形成治理共识。