摘要:生成式人工智能作为一种颠覆性技术,引发了威胁学术诚信、侵犯数据隐私、挑战知识产权等高风险问题。教育领域迫切需要反应敏捷、决策果断,采用创新的治理思路与实践路径,以发挥其正面效应,有效控制潜在风险。本研究采用案例分析方法,基于创新治理模式和教育层级覆盖考量英国政府、澳大利亚高等教育质量与标准局、美国麻省理工学院三个案例,构建生成式人工智能教育治理框架,诠释治理新思路、新方法和新路径。研究发现,各层面的生成式人工智能治理策略具有创新性融合特征:政策层面通过柔性政策释放创新空间,广纳多方利益相关者参与,共同推进治理进程;行业监管层面通过权威标准维护教育质量和公平,引领教育评估的变革;教育机构层面通过学习科学理论与教学实践的协同进化,激发教育创新活力。本研究建议落实区域协同创新,推动生成式人工智能应用与治理双轮驱动,积极探索借助生成式人工智能优化和创新教育治理的新可能。
关键词:生成式人工智能;教育应用;治理创新;路径探析
文献综述
(一)风险与挑战
已有研究表明,生成式人工智能在内容生成与优化、数据分析与推理、创造性任务支持等方面的能力独特,有助于实现互动式和自适应学习,为促进个性化学习和提升教师工作效率带来机遇(Bahroun, et al,. 2023; Lim et al., 2023),但也会引发一系列风险,突出表现在:
一是学生可能借助生成式人工智能提交未经原创思考的作业或论文,导致学术抄袭和知识产权问题增多,也会造成教育评价标准失衡(柯清超等,2024)。生成式人工智能生成的内容并不总是准确或适用于特定的教育情境,这种偏差可能直接影响学生的成绩与认知发展(UNESCO,2023)。
二是生成式人工智能依赖大量个人学习数据开展训练与优化,会引发学生隐私保护问题。有研究指出,教育机构使用人工智能时,若发生数据泄露或不当使用,可能对学生权益造成严重损害,如何平衡技术创新与隐私保护是当前亟待解决的难题(Hwang & Chen, 2023; 刘骥等,2024)。
三是生成式人工智能可能导致教学内容趋于同质化,削弱教师的自主性和创造力,从而使教育过程变得机械(毕文轩,2023)。还有学者指出生成式人工智能在不同地区和文化背景下的适应性存在问题,技术难以“一刀切”地满足所有教育环境的需求,这可能导致学习效果不理想(王帅杰等,2024)。
四是生成式人工智能可能加剧教师的工作焦虑。对于不熟悉生成式人工智能的教师,使用生成式人工智能可能增加他们的工作负担和焦虑,从而影响课堂教学效果(祝智庭等,2023)。有学者发现,教师在尝试平衡生成式人工智能与传统教学模式时常感到压力,尤其在面对快速发展的技术变革之际,这种压力愈加明显(Kurtz et al., 2024)。
总体而言,生成式人工智能的教育应用存在伦理、技术适应性和教学实践复杂性等问题,面对学术诚信、数据隐私、知识产权、工作焦虑、数字鸿沟等挑战,教育领域亟需制定更细致的监管和治理策略。
(二)教育治理关键策略及不足
研究表明,各国正尝试利用伦理指导、法规制定、技术监管和意识形态管理等对策,应对生成式人工智能技术给全球教育体系带来的挑战。首先,伦理治理是技术发展的重要前提。生成式人工智能技术的治理应以伦理为先导,确保算法在公正性和透明度方面符合人类价值观(Mittal et al., 2024; 支振锋等,2024)。有研究指出在教育领域,伦理的优先地位不仅在技术开发阶段就需被引入,还应贯穿整个周期(沈苑等,2023)。还有研究强调虚假信息治理面临的新挑战,提出加强敏捷治理,形成灵活和动态的监管机制(何宇华等,2024)。
生成式人工智能技术的复杂性和潜在风险也对监管提出新要求。司林波等(2024)强调具体场景的重要性,认为需构建更严密的监管框架,并结合教育场景的特殊需求,规避技术滥用带来的问题。王海威等(2024)基于人工智能教育应用引发的隐性意识形态话语风险,指出人工智能治理框架的构建和执行仍存在不足,潜在的意识形态控制和话语操纵需更多的研究和治理对策。马亮等(2024)指出,当前的治理策略缺乏高层次的指导文件,政府各部门间协同治理的力度不足。
总的来说,生成式人工智能技术在教育中的治理已取得进展,但仍需更精细的法律、技术和伦理框架来有效应对各类挑战。基于此,本研究以生成式人工智能教育应用的治理创新实践为研究对象,对国际现有治理举措,尤其是层级性治理与多属性治理等难题进行分析,以提炼具有参考价值的创新路径。
案例分析
案例研究要求子案例具有某些相似性和差异性,虽然不能基于单个案例或者非常小的样本进行概括,但通常可为进一步的研究开辟新领域(Carminati, 2018)。本研究注重案例选取的典型性与启发性,分“宏观—中观—微观”三个层面,确保覆盖不同的治理阶段与教育层级,且所选案例均具备完整的教育创新模式,有利于从现有经验中提取行动要素。本研究选取英国政府、澳大利亚高等教育质量与标准署和美国麻省理工学院作为案例,涵盖不同国家和教育层级的治理实践,具有较好的代表性与借鉴意义。研究者通过收集政策文本、调研报告、媒体报道、课程录像、在线讲座等资料,确保数据的丰富性和可靠性。
(一)英国政府:柔性政策框架下的敏捷治理
英国政府(2021)发布的《国家人工智能战略》,为人工智能的发展设定了十年愿景;2023 年(UK Government, 2023a)发布的《促进创新的人工智能监管方法白皮书》(简称《白皮书》)明确了促进人工智能创新的监管框架。同年,英国教育部(UK Government, 2023b)发布《教育中的生成式人工智能》,强调通过合理使用人工智能减轻教师负担、提高教学效率。具体来说,英国政府着重以柔性政策对生成式人工智能教育应用开展敏捷治理,为教育场景的技术应用创新和探索留出空间。
1. 基于情境和原则的动态监管框架
英国政府(UK Government, 2023a)在《白皮书》中明确指出,“监管并不总是支持负责任创新的最佳方式。新一轮的僵化和繁重立法可能会阻碍人工智能的创新,削弱应对未来技术进步的能力。”基于这一立场,英国科学创新技术中心提出基于原则的动态监管框架。该框架采用基于情境的方法(context-specific approach),根据人工智能在特定应用中可能产生的结果开展监管,认为将关键基础设施中所有人工智能应用都归为高风险是不恰当或无效的;人工智能风险评估应包括关键业务中无法使用人工智能可能产生的机会成本。对情境的敏感性使该框架能以适当的方式应对风险,避免扼杀创新或错失利用人工智能带来社会效益的机会。
该框架提出跨部门原则指导监管机构应对人工智能带来的风险,包括安全性、保障性和稳健性(safety, security and robustness),适当的透明和可解释性(appropriate transparency and explainability)、公平性(fairness)、责任制和治理 (accountability and governance) ,以及可争议性与补救机制(contestability and redress)。其中,透明、公平、问责主要来自参与政府研究的公众反馈。这些原则的应用非常灵活,最初由监管机构自行决定,并根据行业需求确定优先次序。
2. 鼓励试错与创新的空间释放机制
2023 年 9 月至 2024 年 3 月,英国教育部、教学研究院及评估集团联合开展“生成式人工智能教育应用案例”(UK Government, 2024a)。该项目通过黑客松活动、用户反馈和概念验证工具,系统检验生成式人工智能技术的教育应用效果。具体工作包括收集教育工作者的意见、筛选典型应用场景、验证智能工具能否有效减轻教师负担。早期调研涉及 710 名教育从业者,四场焦点访谈用于了解利益相关者的观点。最终,项目团队总结形成 12 个典型应用案例,涉及课程生成、试卷批改等,体现了生成式人工智能在辅助教学及减轻教师负担方面的潜力。
基于 12 个案例,项目组开展黑客松活动,60 余名教育从业者和技术专家通过参与一系列任务设置和提示词优化,评估生成式人工智能技术在特定场景应用的适切性。例如,参与者被要求测试生成式人工智能技术能否高效完成课程计划编写、考试批改等任务,以评估生成式人工智能技术在教育反馈、个性化学习和教学管理中的潜力,并验证其能否减轻教师的重复性工作。
基于黑客松活动的成果,项目组挑选了 8 个创新且有潜力的案例用于开发验证工具,探究生成式人工智能处理教学任务的能力。项目组选取面向四年级学生作业批改的生成式人工智能工具开展用户研究,发现多数教育工作者认可生成式人工智能在反馈标准化和提升效率方面的潜力,但对其广泛应用持谨慎态度,担心其削弱对学生情感的理解,影响师生关系。教师普遍认为,推广生成式人工智能需更多时间、培训和资金支持,才能有效提高人们对生成式人工智能的掌握能力,并确保安全性和有效性。研究还发现,教师的年龄和职业经验与其对生成式人工智能的接受度密切相关,不同职业阶段的教师需要不同的培训和支持,年长教师相对保守,年轻教师有较高的兴趣和适应性。
3. 打通多方参与生成式人工智能治理的渠道
2023 年 4 月起,英国教育部开展了多轮在线调查,收集学校领导、教师、家长和学生的反馈,旨在了解生成式人工智能教育应用状况、面临挑战和未来发展潜力。结果显示,多数教育工作者对生成式人工智能持开放态度,但对如何有效整合技术仍有疑虑。
2023 年 6 月,英国教育部(UK Government, 2023c)面向全国收集证据(收到 567 份反馈)表明,教育工作者和专家对人工智能技术的教育应用潜力持乐观态度,但也担忧潜在风险,关注点包括学术诚信、人工智能是否会替代面对面教学,以及技术应用可能导致的数字鸿沟扩大。参与者提出的建议包括改善数字基础设施、开设人工智能培训课程、从政策层面预防学术不端行为。这些反馈有助于教育部门全面理解生成式人工智能的教育应用现状及面临挑战,为制定政策和措施奠定基础。
基于上述反馈,2024 年 1 月,英国教育部与政府开放创新团队联合发布《教育中的生成式人工智能:教育者和专家的观点》研究报告(UK Government, 2024b)。该报告基于对 24 位一线教师、12 位学术专家和 3 位教育技术业界人士的访谈指出,教育工作者倾向于以低风险的方式使用生成式人工智能,如创建课程内容和与家长沟通,而对评分、评估和个性化教学等复杂任务,生成式人工智能的应用仍较有限。这表明,人工智能教学应用潜力巨大,但应用边界有待扩展。
(二)澳大利亚高等教育质量管理与标准署:高标准引领下的评估变革
澳大利亚自 20 世纪 80 年代后期开始构建高等教育质量保障机制,并于 2011 年成立澳大利亚高等教育质量管理与标准署(The Tertiary Education Quality and Standards Agency, TEQSA),其职责是监管高等教育。面对生成式人工智能带来的挑战,澳大利亚高等教育质量与标准署(简称“质量与标准署”)展现了前瞻性和系统性的治理策略。截至 2024 年 8 月,该署发布并整合了涵盖学术诚信、教学评估、科研管理等大量资源,旨在帮助高等院校和教师应对生成式人工智能带来的机遇和挑战。该机构认为新兴技术既带来机会也伴随风险,强调将学生体验置于首位,确保所有决策遵循“良好治理” (good governance)的基本原则,从而在确保教育质量的同时,最大限度地发挥人工智能技术的潜力(TEQSA, 2023a)。
1. 权威标准支持下的风险监管策略
质量与标准署的监管模式以系统性和前瞻性著称,尤其依赖《高等教育标准框架》(简称《标准框架》)为高等教育质量提供基准,确保新技术影响下教育质量的稳定性和连续性。自 2011 年发布以来,《标准框架》已两次更新(分别是 2015 年和 2021 年),以适应不断变化的教育环境,内容涵盖学生参与、课程设计、评估与学习成果、机构治理等多个方面,为高等教育提供了详细的规范和指导(TEQSA, 2021)。
面对生成式人工智能的兴起,质量与标准署并未推出全新的政策,而是依托现有的高等教育标准框架应对新技术带来的挑战。高等教育诚信部主任海伦•格尼尔(Gniel,2023)在其报告《人工智能:监管的视角》中指出,与学术诚信相关的很多问题在《标准框架》已有规定,“新技术的出现并不意味着必须制定全新的政策,《标准框架》具备足够的前瞻性,很多标准可以应对人工智能带来的挑战。”例如,《标准框架》要求评估方法与学习成果一致,并能准确反映学生的实际成就,这为应对生成式人工智能给学术诚信带来的潜在问题提供了坚实基础。
此外,《标准框架》涵盖课程设计、学术与科研诚信、机构治理等方面的设计原则,确保高校在课程设计和评估过程中明确预期的学习成果和评估方法,并确保学术与科研的诚信。这种系统性监管框架使澳大利亚高等教育机构面对生成式人工智能技术带来的评估有效性和学术不端行为挑战时,能从容应对,既维护高标准的学术诚信,又为技术创新提供灵活空间。
2. 聚焦伦理和素养的评估目标革新
为应对生成式人工智能带来的评估挑战,质量与标准署(TEQSA, 2023b)2023 年 11 月发布了《人工智能时代的评估变革》(简称《评估变革》),提出以伦理和素养为核心的评估目标。文件明确指出,评估设计应展示学生的学术表现,并推动师生间的合作与反馈;反映人工智能对学习方式和评估内容的影响,不仅要适应智能工具的广泛应用,帮助学生使用智能工具,还要培养学生在人工智能社会中的道德参与能力。特别是在生成式人工智能飞速发展的背景下,教育评估需通过学生的“丰富表现”反映他们对智能工具及其伦理、局限性和潜在偏见的理解。
质量与标准署提出两项指导原则:一是要求“评估和学习经历应使学生能够在人工智能无处不在的社会积极参与”,不仅关注学术成果,还要帮助学生发展道德责任感和批判性思维;二是采用多样化、包容性和情境化的评估方法形成对学生学习的可信判断。这表明,单一评估形式无法涵盖学生使用人工智能时的复杂表现,应通过多样化评估方式和交叉验证提升可信度和包容性。2024 年 8 月,质量与标准署(TEQSA, 2024a)发布了《生成式人工智能对学术诚信构成的演变风险》文件,再次呼吁高等教育机构从单纯关注学术不端行为转向关注学生学习实际发生的过程。
上述举措不仅表明澳大利亚高等教育质量与标准署对伦理和素养的重视,还反映了其对生成式人工智能技术在教育评估应用中潜在风险的敏锐洞察。上述政策的发布和执行不仅推动了评估方法的多样化,也强化了道德责任的培养,以使未来人才在技术与伦理的双重挑战下能更好地应对。
3. 倡导包容全纳的多元化评估方法
2024 年 7 月 3 日,澳大利亚高等教育质量与标准署(TEQSA, 2024b)发布公告,要求所有高等教育机构提交行动计划和证据,证明其政策和措施在人工智能时代依然能确保教育公平,回答“当前的评估方法能否确保所有学生取得特定的学习成果”“是否考虑了人工智能技术对评估改革及不同学生群体的影响,确保学业平等机会”等关键问题。
质量与标准署在《评估变革》中提出一系列核心原则,尤其重视公平、无障碍、平等、透明等核心价值。质量与标准署尤其强调教师要为学生提供与生成式人工智能合作的机会,教师不能假设所有学生都具备使用生成式人工智能的条件或能力,而应该在教学过程中提供必要的资源和培训,确保所有学生都能公平地参与评估。这种立场不仅重视教师的参与,还强调保持“人在回路中”的重要性,确保评估的公平性和有效性。质量与标准署还特别强调生成式人工智能技术可能扩大数字鸿沟,提醒教育领导者实施政策时须关注弱势群体的需求,避免加剧教育不公平。
为了提升评估的公平性,质量与标准署在《评估变革》中指出,评估设计应基于证据,确保学生和人工智能共同创建的评估产品能够展现学生的批判性思维和学习过程,建议通过将大规模评估作业拆分为多个部分,展示学生在使用生成式人工智能时的决策过程,包括遇到的困难和解决策略,从而收集学习过程的证据,即重点不在于评估最终结果,而在于展示学生与人工智能合作过程中的思维和学习路径。
(三)麻省理工学院:优质资源支持的教学创新
麻省理工学院作为全球知名的科技与学术机构,在生成式人工智能教育应用方面始终处于领先地位。麻省理工学院提供了包括具体的教学设计策略、最佳实践的案例分析和风险防范措施等一系列资源,帮助教师在教学中有效融合生成式人工智能技术。
1. 生成式人工智能辅助教学创新的资源引擎
麻省理工学院信息系统与技术部门通过建设全面的学习资源和支持系统,帮助教师了解如何有效地将生成式人工智能融入教学,激发教师的创新潜力。围绕教师采用新技术可能面临的挑战,信息系统与技术部门(MIT, 2024a)提供了一系列学习资源支持教师的专业发展,包括在线课程、研讨会、工作坊和教学指导手册。
同时,为了帮助教师了解最新的教育技术发展趋势,麻省理工学院教学与学习实验室(MIT, 2024b)提供了关于人工智能教育应用的专业发展课程,涵盖写作、评估、提示工程、偏见等主题,回答如何使用生成式人工智能增强学生的学习体验、如何评估生成式人工智能的有效性、如何在课程设计中有效整合生成式人工智能的资源和支持等关键问题,为促进教育教学创新提供支持。
此外,麻省理工学院定期更新和维护生成式人工智能工具库,确保教职员工和学生能获得最新的技术支持和使用指南。该资源库包含经过严格筛选的生成式人工智能工具,并为用户提供详细的使用说明。通过这种动态支持系统,麻省理工学院始终在生成式人工智能技术快速发展的环境中保持领先地位,并确保技术应用的安全性和有效性;推动教师分享个人经验和最佳实践,访问同行创建的资源、参与讨论以及与专家互动。
2. 学习科学理论与实践的协同进化
麻省理工学院通过学习科学理论推动生成式人工智能的教育创新应用,为教师提供理论指导与技术支持。借助学习科学理论,麻省理工学院通过探索如何利用生成式人工智能工具提升学生的学习动机、参与度和高阶思维能力;通过数据驱动的教学策略满足学生的个别需求;借助生成式人工智能提供定制化的反馈与资源,推进个性化的教学,帮助学生学习获得有效的支持。
麻省理工学院还在课程设计和评估中引入生成式人工智能,帮助教师分析课程内容与学生学习成果,识别课程的优势与不足,从而进行相应的调整和改进。在这一过程中,麻省理工学院强调利用学习科学理论完成多种任务:教师能创造多样化的示例和解释,帮助学生从不同角度理解复杂概念;生成式人工智能的分析功能使教师可以发现并解决学生学习问题。此外,麻省理工学院提倡频繁的低风险测试或自我评估,促进学生对知识的掌握,并允许教师通过生成式人工智能自动化的特点,及时获取反馈。
总之,麻省理工学院在学习科学理论的指导下,不仅积极鼓励教师探索符合学生学习规律的人工智能赋能教学的新策略,还通过持续检验人工智能在教学与学习中的应用效果,深入理解学习的本质,丰富现有的学习科学理论。这种理论与实践协同进化的动态反馈机制不仅促使教师及时调整教学方法,还能确保在实际应用中最大化生成式人工智能的潜力,为教育领域的持续创新提供理论支撑。
3. 伦理保障与创新探索的平衡艺术
在实施这些创新的同时,麻省理工学院强调负责任地使用生成式人工智能的重要性。例如,信息系统与技术部门针对信息安全、数据隐私和法规合规性等关键领域发布了行动准则,确保教师在教学和研究中使用智能工具遵循行业标准。此外,麻省理工学院还发布了一系列在线资源,帮助教师了解如何确保智能工具的使用不侵犯学术诚信和数据隐私,符合伦理和学术诚信标准。信息系统与技术部门提供了一整套关于学术诚信、负责任的研究行为和有效使用生成式人工智能的手册和资源,以支持教师实际教学遵守相关标准与伦理准则。
麻省理工学院鼓励教师重新审视课程设计,关注评估过程的伦理特征。一方面,学校要求每位教师都要制定课堂生成式人工智能使用规则,并确保学生充分理解如何有效且合规地使用生成式人工智能工具。如果教师允许学生使用生成式人工智能完成作业,那么他需要明确说明希望学生如何引用工具生成的内容并记录使用情况。另一方面,学校要求教师设计作业时考虑“人工智能可能会如何削弱学习任务的预期目标”“如何让作业对学生更有意义”等关键问题,要求学生通过自我调节和自我解释解决问题的过程来提升元认知技能,避免学生对生成式人工智能的过度依赖。
麻省理工学院也明确告知教师使用生成式人工智能的潜在风险。比如,生成式人工智能存在的“幻觉”、收费、数据共享方式,可能导致公平、全纳、隐私等问题。针对这些风险,麻省理工学院建议教师结合学校无障碍服务等条文,尝试让学生使用人工智能生成内容(如教师或助教可以输入学生指定的问题/提示,并分享给学生)。
治理创新路径
本研究从治理主体、覆盖区域、治理模式等多维度比较典型案例(见表 1),提出动态治理创新路径(见图 1),为理解和优化生成式人工智能的教育治理提供理论和实践基础。
(一)共塑未来:生成式人工智能教育治理区域协同创新
在生成式人工智能的浪潮下,传统的教育治理模式面临前所未有的挑战,教育领域亟需构建区域协同治理机制,提升对生成式人工智能技术的统筹领导和治理能力。这包括有效整合各级政府、教育机构、科研院所及企业等多方资源,形成合力以提升教育治理的统筹领导能力。然而,实现宏观层面的有效协同、形成健全的政策体系,有待长期的实践探索。英国政府通过建立教育数字化转型示范区,推动区域内外的资源共享和经验交流。这些示范区不仅是生成式人工智能技术应用的试验场,还是最佳实践的传播中心,可引导其他地区借鉴和推广成功经验,形成跨区域的协同效应。澳大利亚高等教育质量与标准署(TEQSA, 2023a)的监管框架通过鼓励高等教育机构保护学生数据隐私和维护学术诚信方面采取一致行动,实现全国范围的教育治理协同。
区域协同机制的建立和实施,需要解决几个深层次问题。这包括确保不同区域之间政策的一致性和协调性,避免因政策差异导致的资源配置失衡;建立有效的沟通和协调机制,确保各方利益相关者能充分表达需求和期望,形成共同的治理目标;通过区块链等技术创新,提高治理过程的透明度和效率,增强参与各方彼此的信任;评估和监控区域协同机制的实施效果,确保其适应快速变化的教育环境和技术发展。建立区域协同机制还应考虑可持续性和适应性。随着生成式人工智能技术的不断发展,区域协同机制需有足够的灵活性和适应性,以应对未来可能出现的新问题和新挑战;提升在不同文化和教育体系中的适用性,确保能在全球推广和实施。
(二)以治提质:生成式人工智能教育应用与治理双轮驱动
在教育领域,生成式人工智能的应用与治理共同推进或将成为教育高质量发展的有效驱动机制。该机制强调技术应用与治理创新的相互促进和相互支撑,以确保生成式人工智能技术在教育领域的正面效应得以最大化,同时有效控制潜在风险。澳大利亚高等教育质量与标准署通过《高等教育标准框架》推动高等教育机构采用生成式人工智能技术,同时确保这些技术的应用符合教育质量和标准。这种做法体现了治理与应用的紧密结合,通过治理促进技术的有效应用。
“以治提质”的双轮驱动机制要求重新思考教育治理的核心目标和方法,治理不应只关注规范和控制,更应关注赋能和促进创新,如治理的适应性、前瞻性、包容性和持续性。这意味着治理策略需要更加灵活、开放,鼓励政府、教育机构、教师、学生和家长等多方参与。此外,治理策略需要注重伦理和公平,确保生成式人工智能技术的应用不会加剧教育不平等,能够为所有学习者提供平等的学习机会。更重要的是,治理策略需要持续地评估、改进和优化,以有效应对新的挑战和需求。
(三)技术赋能:从治理生成式人工智能走向用生成式人工智能治理
教育领域的生成式人工智能不仅是技术革新的产物,更是推动教育治理模式从传统向现代转型的关键力量。通过引入多智能体系统等新技术,教育治理可以实现从被动治理人工智能到主动利用人工智能进行治理的范式转变。这种转变意味着人工智能不再是被监管的对象,而是治理过程的积极参与者。人工智能也将显著提升教育治理的智能化、精准化和高效化水平。例如,麻省理工学院(MIT, 2024a)通过智能推荐系统为学生提供个性化的学习资源和路径推荐,通过智能分析工具评估和优化教育政策的实施效果。
合理引入技术手段赋能教育治理,需要重新思考和设计教育治理生态系统。这包括构建开放、灵活和可扩展的技术平台,支持智能体的集成和协作;制定相应的治理策略和规范,确保智能体的决策和行动符合教育目标和价值观;建立有效的人机协作机制,充分发挥智能体的技术优势和人类的决策优势;评估和反馈智能体的治理效果,持续改进和优化治理过程。由此可见,在技术赋能的框架下,治理创新应通过治理主体、教学主体和教育机构等多方的互动,共同推动教育系统的治理现代化。
结语与反思
当前人类社会处于高度技术化,生成式人工智能作为其中的关键力量,正重塑教育目标、理论、模式,对教育治理也提出了新的要求。本研究通过深入探讨生成式人工智能教育应用的治理创新路径,发现教育治理需要采取区域协同创新策略,通过跨区域的政策协调和资源共享,形成灵活和适应性强的治理体系;提出生成式人工智能应用与治理的双轮驱动机制,强调技术应用与治理创新相互促进和支撑,有效控制潜在风险。通过生成式人工智能技术优化教育治理,是实现治理现代化的关键路径。与已有研究相比,本研究提出的多维度治理框架,强调治理策略的动态性和适应性,要求政府、各个区域及学校共同参与,通过跨领域的沟通与联动,在保障技术发展的同时,共同探讨和应对可能出现的风险,形成一套可被广泛接受、操作性强、可灵活调整的治理策略。这些策略将有助于实现敏捷治理,避免陷入监管困境,有效应对生成式人工智能技术带来的风险和挑战。
更多资讯