人工智能技术的应用在提升效率的同时,也存在教育主体性异化的危机。有鉴于此,以批判技术哲学与教育生态学为理论透镜,结合人工智能的教育实践现状,从认知、能力、伦理、制度等四个维度系统剖析师生面临的困境,并提出相应的解决路径,有助于为人工智能时代高等教育的主体性重建提供理论指引与实践框架。
一、识读人工智能时代高等教育主体性的理论视角
1.海德格尔技术观
海德格尔(Heidegger)的技术哲学为理解人工智能对高等教育的深层影响提供了关键透镜。其核心概念技术“座架”(这是海德格尔技术哲学的核心概念。Gestell通常译为“座架”“框架”“架构”“普遍强制”,意指技术的本质并非单纯的工具,而是一种支配性的存在方式,将世界的一切转化为可控制的资源。在本研究中,“智能座架”指代人工智能以算法和数据为核心,对教育领域进行的强制性重构)揭示技术的本质并非工具,而是一种强制性的秩序框架,通过标准化、可计算性重构人与世界的关系。这种技术理性遮蔽事物本真性,使人类陷入将万物视为可操控对象的思维困境。在其“技术座架”理论视域下,人工智能正以“智能座架”形态重构教育存在论基础。在知识被分解为可计算的语义单元、个性化学习简化为参数优化算法、对话界面将认知过程固化为即时应答模式这一过程中,人工智能成为教育场域的“座架”,教育存在的本质正在发生根本性异化。这种异化体现为双重解构过程:其一,教师作为“存在之牧者”,其本质使命在于通过激活思辨能力、引导本质追问,帮助学生实现从知识获取到意义建构的跃迁。随着技术系统的介入,教育智慧被简化为算法训练的数据原料,教学自主性让位于人工智能生成的标准化方案,难以根据教育情境进行动态调适。其二,学生从知识探索者异化为系统闭环中的被动接受者。学习过程沦为标准化任务执行,个性与创造力被数据化指标取代,情感交流与社交互动被技术中介物化。这种本体论层面的转变使师生在技术系统中逐渐“持存”(Bestand 指一种静态的、可储备的存在状态,万物在这种状态下被剥夺了动态的、生成性的本质。在教育语境下,当师生成为“持存”时,意味着其价值被数据化、功能化,成为可被算法系统优化、调用、评估的“资源”,其作为完整的人的丰富性、创造性、主体性面临被消解的危险),面临主体性消解的危险。
2.教育生态学共生理论
20世纪中叶,共生理论被社会科学领域吸收,成为分析系统互动机制的重要工具。劳伦斯·克雷明(Lawrence Cremin)首次将教育视为由学校、家庭、社区等多主体构成的动态交互系统,并提出教育效能的实现依赖于各要素间的“生态位互补”(Ecological Niche Complementarity)。这一理论转向标志着共生思想正式进入教育研究领域。范国睿进一步发展该理论,提出“教育生态位分化”模型。该模型指出,教育系统中的教师、学生、技术工具等异质主体通过占据特定生态位(如教师作为教学设计者、AI作为智能代理者)实现功能互补,提高效率,并通过适应性进化来应对外部环境变革。这种理论建构不仅解释传统教育生态的稳定性机制,还为技术介入时代的主体关系重构提供分析框架。当生成式人工智能作为一种技术存在嵌入教育系统时,其生态位划定直接影响系统整体效能。
两套理论构成了本研究的理论基础与分析框架,前者揭示技术异化的深层机理,后者提供主体重建的实践路径。在此框架下,我们得以穿透技术赋能的表象,直面人工智能时代教育主体性危机的本质。这不仅关乎工具使用能力,还是人类在技术文明时代如何守护教育本质的追问。
二、人工智能时代高等教育主体性四重困境的质性诊断
1.认知困境:技术“座架”下的认知异化
AI技术在教育场域引发的核心认知困境表现为“认知异化”,即师生主体对世界的理解方式、思维模式、知识建构过程被系统性重构,其主体性逐步丧失并受制于技术系统的运行规则。在此情境下,师生学习思考的过程就失去了人本该有的主动性和灵活性,即海德格尔说的“本真性”。
教师本应从“知识权威”的内容传授者转变为“思维引导者”,其核心价值在于激活学生的认知潜能而非简单传递信息。技术“座架”不仅未能有效赋能这种转型,反而在认知层面催生了一种深层异化:教学智慧被降维为数据驱动的机械化流程,例如,人工智能生成的“高效教案”往往剥离文本的历史语境与文化互文性,将《荷马史诗》压缩为叙事模板,使《论语》沦为道德箴言的数据堆砌。这种认知简化不仅消解了教师的知识阐释权威,更危险的是技术“座架”在无形中重构了教师对“好教学”的认知标准,导致教师内化了一套以效率、可计算性为核心的评价指标,教学智慧被弱化为技术流程中的标准化操作,从而导致教学主体的认知异化——原本以激发思维、培育心智为旨归的教学智慧,被弱化为技术系统中的标准化操作,教师与教学本质之间出现了认知上的断裂与疏离。
在学生层面,人工智能通过预设的认知路径,将原本应当由主体完成的复杂思维过程压缩为对技术指令的被动响应。在知识获取阶段,生成式人工智能提供即时答案,使学生绕过必要的概念澄清、证据组织、逻辑推演过程,导致其问题意识建构能力弱化;在认知加工阶段,学生倾向于依赖关键词匹配与结果优化,在面对任务时,将重点放在如何通过预设的手段实现特定目的,而忽略了对行为背后的意义、价值、整体情境的思考,元认知监控逐渐萎缩;在知识内化阶段,人工智能进一步将知识切割为脱离语境的离散信息单元,学生便逐渐丧失理解知识生产的历史情境与意义网络的能力,最终陷入德雷福斯(Dreyfus)所批判的“脱离具身”的认知困境。
2.能力困境:技术代偿与创新阻滞的双重挤压
对教师群体而言,其能力困境呈现为技术中介化教学引发的技术功能代偿问题。在教育场域表现为AI本应通过功能代偿(如批改作业、数据分析)释放教师精力以专注育人,但在现实中因教育系统的失衡导致教师陷入“技术执行者”角色,教育系统对技术效率的过度推崇与配套支持不足(如培训重工具轻思维、评价指标偏向技术应用),迫使教师将大量精力耗费于技术平台的操作学习、流程适配、数据填报、管理维护。本应被代偿释放的“育人时间”,为技术运维任务所侵占,教师被迫将大量时间投入技术操作学习中,反而挤压了师生互动与价值观引导的实践空间。
学生群体面临的困境则体现在能力发展悖论中,生成式人工智能在提升学习效率的同时,其即时性知识供给特征可能弱化元认知监控能力。卡内基梅隆大学与微软研究院的联合研究《生成式人工智能对批判性思维的影响》揭示了教育主体依赖技术带来的能力危机,知识工作者因“思维惰性”放弃验证,导致“批判性思维肌肉萎缩”现象,系统性地削弱人类独立解决问题的能力。这种困境的演化逻辑遵循“能力代偿”机制,当AI接管文献综述、数据分析等学术任务时,教育主体的高阶思维能力因缺乏训练场景而退化,形成“技术越先进-能力越脆弱”的恶性循环。
3.伦理困境:算法规训下的价值迷失
AI引发的教育伦理危机本质上是技术对价值判断权的系统性侵蚀。在传统教育范式中,价值判断权的核心持有者是教师、教育共同体、社会文化、教育目标。随着AI技术深度融入教育中,虽然名义上教师可能保留“最终决定权”,但在实际操作中,AI技术的效率以及其提供的“数据支撑”,常常使其输出结果具有强大的权威性。教师容易过度依赖或听从系统建议,其独立的价值判断空间被压缩,价值判断权发生了系统性的让渡。
与之相伴的是学生层面的伦理危机,其核心同样是价值判断能力的异化。一方面,技术便利性催生了学术诚信危机的加剧与隐蔽化。学生利用多种生成式人工智能平台的差异性,采用“AI内容拼接法”对产出进行加工,规避算法查重检测,使抄袭行为难以被发现。更为严峻的是,部分商业机构开发反AI检测代写服务,形成完整的学术舞弊产业链。
这不仅是对学术伦理根基的直接冲击,更关键的是,这种技术便利性实质上是米歇尔·福柯(Michel Foucault)所揭示的“规训权力”的现代技术变体,它通过技术手段规训学生适应“作弊可规避”的逻辑,导致学生批判性思维能力和学术品格的系统性退化。另一方面,算法运行机制内嵌的价值观引发了更深层的教育目标窄化与学生价值迷失。算法作为设计者价值理念的载体,其固有的数据依赖与量化偏好,使其价值判断带有强烈的筛选性和排他性。例如,自适应学习系统常通过数据过滤机制,将难以量化的人文价值因素(如审美体验、道德思辨、情感关怀)排除在核心评价体系之外,在无形中植入了一种功利主义教育观。其后果是:丰富多维的教育过程被简化为标准化数据的生产和效率追逐,学生可能在算法指引下高效获取知识技能,却在价值判断上陷入迷失;他们娴熟于适应系统预设的“最优路径”,却逐渐丧失了基于深度理解、伦理反思、人文关怀进行独立、负责任价值判断的能力与意愿。
4.制度困境:液态现代性中的治理失效
齐格蒙特·鲍曼(Zygmunt Bauman)的“液态现代性”理论指出,固态教育治理体系和治理模式难以适应技术快速流变的现实。
一方面,液态现代性要求制度具备动态调整能力,但教育治理往往陷入“一刀切”与“放任自流”的摇摆,全球高校对应用AI普遍陷入的“政策钟摆困境”正是这一矛盾的缩影。它暴露了制度在技术冲击下的被动性,既难以有效遏制技术渗透,也无力引导师生内化驾驭AI工具所需的素养,以致难以“化风险为机遇”。类似案例还包括纽约、洛杉矶等学区对ChatGPT的封禁与后续逐步解禁,反映出制度在“防范风险”与“顺应趋势”之间的两难。
另一方面,当AI辅助创作进入知识产权领域时,治理失效的问题就体现在法律规则的滞后性及作品权利主体认定的模糊性上。2024年2月,北京互联网法院审理的“AI文生图著作权第一案”,2025年3月,江苏首例AIGC著作权纠纷案,正是这一困境的现实写照。这些案例揭示了现行制度在适应性上的不足。由此可见,现有知识产权治理框架的规则与理念已难以有效应对AI带来的全新挑战,需要进行相应的调整和革新,确保在技术创新与知识产权保护之间实现合理的平衡。
四重困境构成动态交织的“危机矩阵”,认知窄化削弱创新能力基础,能力弱化加剧伦理判断失准,而制度滞后则使前三大困境陷入系统性锁定。这一多维困境深刻揭示了AI技术对教育主体性的消解进程,算法权力通过认知路径的设定、能力发展的代偿、价值判断的介入、制度适应的迟滞,实现了对教育主体性的隐秘重构。破解困局亟须超越工具理性的技术修补,只有实现从“算法附庸”到“技术主体”的范式转换,才能抵御教育生态的系统性异化。
三、人工智能时代重构高等教育师生角色主体性的实践路径
1.认知重塑:构建“反身性技术素养”路径
“反身性技术素养”的核心在于打破技术“座架”对认知的强制性重构,通过培养师生对技术逻辑的批判性反思能力,揭露技术背后的权力关系,唤醒主体对算法操控的警觉,重建认知主体性。
教师群体需从技术适配者转变为批判性引导者。一方面,技术-人文双轨备课,要求教师在使用AI工具(如教案生成、学情分析)时同步撰写反身性说明书,深度解剖技术方案的局限性。例如,需指出算法如何将《论语》中“仁”的内涵扁平化剥离历史语境。此举旨在解构技术黑箱,促使教师从被动内化转向主动捍卫学科阐释权。另一方面,进行数据辩证法的课堂实践,在文科课堂实施对抗性教学,如对比AI对杜甫《登高》的算法分析与黄鹤楼石刻的历代批注,揭示算法对历史语境和情感深度的消解。此类人机认知对比实验将量化工具转化为揭示技术局限的镜鉴,推动教师回归对学科本质的把握。
针对学生群体,认知异化的破局策略在于构建“算法解构”训练模块,在通识课程中嵌入《AI认知透明度》工作坊,要求学生逆向拆解生成式人工智能的文本生成逻辑。例如,对比同一论文题目下AI生成的初稿与学生自主写作的初稿,分析AI如何通过关键词匹配压缩论证链条,并标注其省略的历史语境与逻辑断层。通过暴露算法如回避价值辩论、简化证据链等过程,促使学生意识到技术对问题意识的消解,重建学生对知识生产认知的严肃性。除此以外,还要进行知识谱系追踪实践,在人文社会科学课程中推行具身化知识重建。以《论语》教学为例,要求学生做到以下四点:一是生成AI道德箴言;二是定位原典出处;三是还原历史对话场景;四是分析AI剥离语境导致的语义畸变。此过程能够有效对抗技术应用的“脱离具身”困境,使学生亲历从碎片信息到意义网络的还原,重塑对知识历史性的感知能力。
2.能力提升:分层培训赋能与多维协同优化
针对教师的能力困境,应实施一套基于技术素养与教学经验的分层培训体系,旨在实现教师能力的有序提升,避免“一刀切”培训造成的资源浪费与挫败感。该体系的培训路径需进行科学设计,面向技术入门者,重点聚焦于AI教学平台的基础操作,如界面熟悉、核心功能应用;面向具备一定基础的教师,则应深化AI工具的教学整合应用,包括跨学科教学设计与多工具协同构建综合教学环境等。其最终目标是引导教师从疲于应付技术运维的困境中解脱,重拾“育人主导者”的核心角色。强有力的技术支持是解放教师育人精力的关键保障。在学校或机构层面,应设立专职技术支持岗位,该团队负责处理技术平台操作学习、流程适配、数据填报、系统维护等问题。当面临AI教学软件故障或数据同步问题时,及时的技术支持有利于教师将认知资源与时间精力高效配置于师生互动、价值观引导等不可替代的育人实践,从而减少在技术维护上的时间投入。
针对学生群体面临的“能力发展悖论”,首要任务是制定学生使用AI技术的指南。明确学生在不同学习任务中如何合理使用生成式人工智能,将学术诚信教育系统纳入课程体系中,旨在使学生熟练掌握人工智能生成内容的引用规范,防范过度依赖倾向。在更深层次,需要开设技术与学习策略融合课程,有助于学生理性认识技术的优势和局限性。例如,在课程中介绍生成式人工智能在知识供给上的即时性特点,分析其可能导致的思维退化风险,引导学生制定科学的学习策略,在接触新知识时,优先进行自主探究与独立思考,在遭遇障碍时再寻求AI技术辅助学习,从而避免“批判性思维肌肉萎缩”现象。
此外,必须营造多元化、深度化的学习环境,打破对单一AI技术源的依赖。学校和教师应提供并鼓励使用丰富的纸质资源、实验设备、线下研讨小组等多种学习载体。在教学设计中,系统整合多种资源与体验,如在历史学习中,要求结合AI信息检索、原著深度阅读、博物馆实地考察等措施,以此强化学生对知识的深度理解与独立思考能力,从根本上减少对技术的过度依赖。
3.伦理重建:建立“教育AI伦理审查委员会”
教育人工智能的深度应用不仅涉及技术革新,还关乎教育本质价值的守护。面对算法对教育伦理的潜在侵蚀,建立“教育AI伦理审查委员会”成为重构人本伦理秩序的核心。这一设计旨在实现技术效能与教育价值的双向制衡,通过将算法透明度纳入伦理审查框架中,在技术工具理性与教育育人本质之间架设桥梁,实现技术治理与教育伦理的深度整合。
教育AI伦理审查委员会的成员构成与比例如下:60%的师生代表席位确保一线教育者话语权;20%的技术专家不仅要负责算法透明性解释,还要定期披露模型训练数据的群体覆盖偏差;20%的伦理学家突破传统伦理学的抽象思辨,通过引入跨学科视角,增强对教育场域特殊性伦理问题的判断力。委员会结构设计体现了三元(师生代表、技术专家、伦理学家)主体认知互补与权力制衡。为防止利益固化,委员会采用动态席位制度,并在争议裁决中发展出差异民主决策范式,在面对宗教议题回避等伦理困境时,伦理学家提供多元文化视角的备选方案,师生代表通过三轮改良德尔菲法凝聚共识,技术专家同步评估方案可行性并生成加权评分矩阵。这种决策模式既避免了技术专家的话语垄断,又防止师生代表对专业判断的干扰,如哥伦比亚大学人类学博物馆与原住民合作,让原住民评价链接到展品中,这体现了让原住民参与文化叙事的思路,有利于防止算法中的文化霸权。教育AI伦理审查委员会的三元结构设计(师生代表、技术专家、伦理学家)的协同制衡呼应了弗洛里迪(Floridi)提出的“分布式道德责任”框架,避免单一主体主导所导致的伦理盲区。
4.制度创新:液态现代性下的教育治理重构
液态现代性要求教育治理从固态管控转向动态适配,需构建兼具弹性与伦理约束的制度框架。
首先,建立动态监测、评估、反馈机制。设立跨学科的专业团队,成员涵盖教育学、技术伦理、数据分析等领域的专家,实时跟踪AI技术在教育领域的应用情况。利用大数据分析和案例研究等方法,对新技术的教育效果、潜在风险进行全面评估。例如,每月收集全球范围内教育技术应用的最新案例,每季度发布一份详细的评估报告,为教育政策制定者提供科学、及时的决策依据。建立反馈机制,将评估结果及时反馈给教育机构、技术研发企业、学生等利益相关者,促进各方在技术应用过程中达成共识、动作协同。
其次,实施分层分类的精准治理策略。根据不同教育阶段和学科领域的特点,制定差异化的AI应用政策。在本科教育阶段,重点规范AI辅助教学工具的使用,确保其符合学生的认知发展规律和教育目标。制定详细的教学指南,明确AI工具在课堂演示、课后辅导等环节的使用范围和操作规范。在研究生教育阶段,规范教师和学生在科研创新、跨学科研讨等方面积极探索AI的应用,建立严格的学术诚信审查机制。针对不同学科,如理工科的编程辅助、人文社科的文本分析等,制定相应的技术应用标准和评价指标,确保AI技术能够充分发挥其优势,避免出现学术不端行为。
最后,创新学术评价体系。在传统学术评价标准的基础上,引入新的维度以适应AI协作环境下的教育需求。除了考量论文的原创性和创新性,还要增加对学术研究过程、数据质量、团队协作能力等方面的评价指标。开发基于区块链技术的学术作品溯源系统,能够准确记录学术作品的创作过程和参与人员的贡献程度,为评价作品的真实性和团队协作效果提供可靠依据。建立AI辅助创作的学术作品评价标准,明确在何种程度上允许AI参与,并根据AI的参与程度合理调整评价权重,既鼓励学生利用AI提高学习和研究效率,又保证学术评价的公平性和严肃性。
(2026年1月 第44卷第1期 李莉莉,西北农林科技大学人文社会发展学院副教授,经济学博士,研究方向为高等教育;魏肇雨,西北农林科技大学人文社会发展学院硕士研究生,研究方向为高等教育;李晓昌,西北农林科技大学信息工程学院讲师,工学博士,研究方向为人工智能。)