

职业教育数字化转型中人工智能应用的伦理风险研究
作者: 曾光 宋以华 黎新华[摘要]人工智能的应用给职业教育数字化转型带来双重影响,使其在赋能职业教育高质量发展中存在机遇与风险。职业教育数字化转型中人工智能应用的伦理风险主要是教育技术伦理风险,其具有多面性、系统性、动态性、持续性等特征,并且在个体伦理、教学伦理、制度伦理以及社会伦理等向度具有不同的表现形式。这些风险的生成逻辑主要体现在技术演进、职教转型、学情多元等因素的影响。为更好地应对职业教育数字化转型中人工智能应用的伦理风险,建议技术筑基,构建稳固的伦理安全技术防护体系;教育引领,营造蕴含伦理教育的教学生态环境;以生为本,确保学生权益与全面发展的深度融合;体系支撑,建立多方协同参与的综合治理机制等。
[关键词]数字化转型;人工智能;伦理风险;化解路径
[作者简介]曾光(1990- ),男,广东河源人,广东交通职业技术学院轨道交通学院,讲师、工程师,硕士;宋以华(1986- ),男,山东莒县人,广东交通职业技术学院轨道交通学院副院长,副教授,硕士;黎新华(1969- ),男,湖北通城人,广东交通职业技术学院轨道交通学院院长,教授,博士。(广东 广州 510630)
[基金项目]本文系2022年度广东省教育科学规划课题(高等教育专项)“人工智能嵌入城轨技能人才培养的内在机理与实践路径研究”(项目编号:2022GXJK486,项目主持人:曾光)、2022年广东省继续教育质量提升工程建设类项目“‘人工智能+老年教育’的融合创新研究:困境分析、技术赋能及体系构建”(项目编号:JXJYGC2022GX443,项目主持人:曾光)和2023年广东省高职教育教学改革研究与实践项目“高质量发展引领下的轨道类专业(群)课程思政改革路径探究”(项目编号:2023JG013,项目主持人:曾光)的阶段性研究成果。
[中图分类号]G710 [文献标识码]A [文章编号]1004-3985(2025)02-0013-09
一、引言
在全球化与信息化时代背景下,职业教育作为培养技术技能型人才的重要类型,正面临前所未有的数字化转型机遇与挑战。随着以人工智能为代表的新一轮科技革命和产业变革深入推进,尤其是“人工智能+教育”的融合,职业教育数字化转型正不断加速。2017年,《新一代人工智能发展规划》发布,强调人工智能技术在教育领域的应用,旨在通过智能技术提升教育质量和效率。2018年,教育部印发《教育信息化2.0行动计划》,强调要持续推动信息技术与教育的深度融合,提高教育教学资源的数字化水平。2019年,《职业教育改革实施方案》《中国教育现代化2035》相继出台,提出利用信息技术推动教育改革和发展的目标,为职业教育数字化转型指明了方向。2021年,《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》提出“建设数字中国”的目标,加快建设数字经济、数字社会、数字政府,以数字化转型整体驱动生产方式、生活方式和治理方式变革。2022年,教育部在年度工作要点中明确提出要实施教育数字化战略行动,加快推进教育数字化转型和智能升级,标志着职业教育数字化转型的加速推进。职业教育数字化转型过程中人工智能技术的广泛应用,尤其是通用大模型的引入,正在影响和改变原有的教育生态和教育秩序,特别在教育理论、教育结构、教育价值、教育文化与教育主体等方面产生了系列冲击,由此引发了多维度伦理风险,亟待深入研究和审慎应对。2022年,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,提出将科技伦理要求贯穿科学研究、技术开发等科技活动全过程,体现了国家对数字化转型过程中科技伦理的重视。可以说,对人工智能技术在教育领域伦理风险问题的思索与回应,将是决定人工智能在教育乃至未来社会能够走多远的关键[1]。
当前学界对人工智能在教育领域的应用及其伦理问题已有一定的关注和研究,董军[2]、范毅强[3]、陈炜[4]、赵磊磊[5]、孙帅帅[6]、高东辉[7]等学者对大数据、区块链、人工智能、元宇宙等新兴技术与教育的融合进行了相关的伦理审视、分析并提出对应的化解路径。但现有研究多集中于理论探讨和一般性分析,对于职业教育数字化转型中人工智能应用的具体伦理风险研究还不够深入和系统,特别是对于通用大模型等新兴技术在职业教育中的应用现状、可能引发的伦理问题及其治理路径的探讨尚显不足。此外,随着技术的不断迭代和应用场景的拓展,新的伦理问题也在不断涌现,亟须进行更为深入和全面的研究。
对此,本文旨在系统探讨职业教育数字化转型中人工智能应用的伦理风险,分析其表现形式、生成逻辑,并提出有效的化解路径,以期为职业教育数字化转型中的人工智能应用提供伦理指导,促进职业教育的高质量发展。
二、职业教育数字化转型中人工智能应用的伦理风险表现形式
(一)伦理风险概念与特征
1.伦理风险的概念。在学术语境下,伦理风险特指在人与自身、人与他人、人与社会、人与自然的伦理关系方面,由于正面或负面影响可能产生的不确定事件或条件,尤指其产生的不确定伦理负效应诸如伦理关系失调、社会失序、机制失控、人们行为失范、心理失衡,等等[8]。本文中的伦理风险主要聚焦于教育技术伦理,旨在深入探讨技术与人、技术与社会、技术与自然之间复杂的道德关系与准则。教育技术伦理涵盖两方面的含义:一是从伦理学视角出发,为教育技术注入人文关怀,主要关注在教育技术发展与使用过程中带来的人与人之间的伦理问题,即技术介入下的“教育伦理”;二是以技术在教育中的实际应用为核心,审视技术变革对教育体系及教育伦理本身的深远影响,即教育中的“技术伦理”[9]。
在职业教育数字化转型的背景下,随着人工智能技术在教育领域的广泛应用,尤其是通用大模型系统的兴起,更深刻改变了教育模式和教育生态。在这一过程中,伦理风险问题越来越凸显,主要的伦理风险类型包括技术风险、内容风险、数据风险与算法风险[10]。其中,技术风险涉及通用大模型系统可能遭受对抗性攻击从而导致数据污染和教育安全问题,以及因高使用门槛可能带来的师生情感与思想交流障碍等技术实践问题;内容风险则关注由大模型生成的内容可能引发的教育失序,如内容不当或误导性信息;数据风险源于输入数据的海量性与无序性,可能导致个人隐私侵犯及数据滥用;算法风险则关联大模型算法的不透明性和潜在偏见,可能加剧教育不平等和歧视问题。这些伦理风险共同构成了一个复杂多维的体系,要求在推进教育数字化转型的过程中必须高度重视并有效应对。
2.伦理风险的特征。一是多面性。伦理风险的多面性体现在其广泛而复杂的影响面上。在教育领域特别是职业教育数字化转型的过程中,人工智能技术的引入不仅改变了教学方式和学习环境,还触及教育公平、隐私保护、内容质量等多层面的伦理问题。这些风险不仅关乎技术本身的可靠性与安全性,更在教育伦理、社会伦理及个人伦理等方面呈现多维交织的特点。在应对伦理风险时,需要从多个角度进行综合考量,制定全面而有效的应对策略。二是系统性。伦理风险的系统性强调其内部各要素之间的相互关联与影响。在教育技术伦理的框架内,技术风险、内容风险、数据风险与算法风险并非孤立存在,而是相互交织、互为因果。例如,技术漏洞可能导致数据泄露,进而引发数据风险;算法偏见则可能加剧教育不平等,触及社会伦理的底线。因此,识别并评估伦理风险时,必须采用系统性思维方式,全面审视各要素之间的相互作用,以构建协同应对的机制。三是动态性。伦理风险的动态性体现在其随时间与情境变化而不断演变的特性上。随着技术的不断进步和应用的深入,新的伦理问题不断涌现,旧的风险也可能因环境变化加剧或减弱。在职业教育数字化转型的背景下,人工智能技术的快速发展使得伦理风险的动态性尤为显著。因此,应对伦理风险需要保持高度的敏感性和前瞻性,持续关注技术发展趋势和应用情境变化,及时调整应对策略,确保技术持续不断发展与伦理风险应对策略的同步更新。四是持续性。伦理风险的持续性强调其长期存在且难以彻底消除的特点。在教育领域,伦理风险往往与教育的本质属性和价值追求紧密相连,如教育公平、学生权益保护等。这些风险不仅在当前技术应用阶段存在,还可能在未来长期的教育实践中持续产生影响。因此,应对伦理风险需要树立长期观念,建立长效机制,通过制度建设、技术改进、教育引导等多种手段,持续降低风险水平,保障教育事业的健康发展。
(二)伦理风险的表现形式
1.个体伦理向度:数据安全与心理健康风险。在职业教育数字化转型浪潮中,个体伦理向度首要面对的是数据安全与心理健康交织的复杂挑战。职业教育领域中人工智能技术的应用,可能涉及学生和教师的大量个人信息,若这些信息未经妥善保护而遭到泄露,将严重侵犯个体的隐私权。此外,对人工智能技术的过度依赖,也可能催生心理健康问题如网络成瘾、社交焦虑、孤独感等,这将限制学生的学习潜力,深刻影响学生社交技能与心理健康的全面发展[11]。
2.教学伦理向度:角色模糊与目标偏离风险。人工智能技术的引入虽然在一定程度上提高了教育效率,但也引发了关于主体角色模糊与教学目标偏移的深刻反思。教师的专业知识和教育经验可能被人工智能技术所取代,导致教师角色边缘化,学生的自主学习能力也可能因过度依赖技术而受到削弱,进而影响学生个性化成长与全面发展[12]。此外,技术驱动的教学模式往往侧重于效率与成绩,忽视了对学生批判性思维、创新能力及人文素养等综合素质的培养,偏离了立德树人的教育目标。
3.制度伦理向度:监管真空与规范缺失风险。职业教育数字化转型面临的主要风险在于监管体系的滞后与法律法规的缺失。由于数字技术的无边界性和跨国性特征,传统的法律规范在数字领域可能难以发挥作用,导致出现监管真空。此外,数字技术的更新迭代速度远远超过了法律规范的制定和修订速度,使得相关规范在很多情况下显得滞后,无法有效应对新技术带来的伦理问题。因此,构建适应数字时代特点的监管框架与法律法规体系,成为保障职业教育数字化转型健康发展的重要基石。
4.社会伦理向度:教育公平与价值取向风险。职业教育数字化转型本应成为促进教育公平的有力工具,但在实践中却面临教育公平与价值取向冲突的严峻挑战。信息资源分配不均、技术门槛过高等因素可能加剧数字鸿沟,进一步拉大城乡、区域之间的教育差距,威胁教育公平的实现。此外,技术的广泛应用可能使得教育过程中的价值取向发生偏差,由注重人的全面发展转向追求技术效率和功利性目标。这种价值取向的失衡不仅影响职业教育的可持续发展,更可能对整个社会的道德风尚与价值体系产生深远影响[13]。
三、职业教育数字化转型中人工智能应用的伦理风险生成逻辑
(一)技术演进,自带伦理风险
1.数据与算法偏见,带来决策失范。人工智能技术的决策实现,主要依赖海量的数据输入和复杂的算法模型。输入的数据自带偏见或算法具有指向性,都将带来决策的失范。例如,如果用于训练大模型的数据集来源单一,缺乏多样性,这表明数据源本身带有一定的偏见。算法可能会学习并放大这些偏见,在算法驱动的具体决策中也将存在偏见。此外,由于大模型算法的复杂性、隐蔽性导致算法黑箱的形成,使其决策过程难以被理解和监督,增加了决策失范的风险。人工智能技术在教育领域的广泛应用,也可能直接影响学生个体的教育体验,极易造成认知操控。
2.技术的不确定性,导致责任模糊。人工智能技术的复杂性和不可预测性带来了决策结果的不确定性,这种不确定性主要体现为系统行为和决策结果难以完全预测和解释。这会导致出现问题时责任主体不明确,责任归属模糊。在教育领域,这种不确定性可能对教育质量和学生发展产生影响。例如,智能系统的决策导致推送给学生的学习资源标准不一,影响学生的学习成绩或价值观的塑造,对应责任的模糊性将使追责和纠正变得复杂且困难,这可能削弱社会对职业教育数字化转型的信任与支持。因此,必须明确责任归属、提高人工智能系统的透明度和可解释性,以有效减少职业教育领域的伦理风险。
3.技术的强依赖性,影响主观能动性。平衡学生技术技能与主观能动性的关系是职业教育培养学生实践能力和创新能力的关键,随着人工智能技术在教育领域的广泛应用,教育工作者和学生对技术的依赖程度明显增加。这种依赖性可能会削弱教育工作者和学生的主观能动性。教育工作者可能会过度依赖智能教育系统进行教学决策,从而忽视自身的专业判断和创造力;学生则可能过于依赖智能辅导系统,导致独立思考和解决问题的能力不足。这些现象不仅影响教育的质量和效果,还可能抑制学生创造性思维和批判性思维的成长。此外,对人工智能技术的过度依赖还可能减少教育工作者与学生之间的互动,进而影响学生的个性化和多样性发展。