摘要:人工智能作为引领教育创新的内生力量,它在为教育赋能的同时也衍生出了一系列不容忽视的现实挑战,因此在人工智能与教育深度融合的进程中,科学治理尤为关键,而厘清其逻辑机理则是有效治理的坚实基础。为寻求前瞻有效的治理逻辑,必须充分考量多元情境下的创新治理行动。本文运用国际观察与案例研究方法,通过对比全球12份人工智能治理的战略行动,拓展了人工智能治理的全球思路,并以新西兰人工智能协同监管实践项目为例,厘清了人工智能治理的实践流程及教育启发。研究发现,人工智能教育治理的逻辑机理表现为:开放包容的系统情境是前提条件,支持联盟的协同教化是中坚力量,科学完善的监管机制是动力保障。鉴于此,本文提出了我国人工智能教育治理的实践进路:打造开放包容的治理场景,推动人工智能教育治理的系统性;形塑多元协同的治理机制,提升人工智能教育治理的有效性;应用动态预测的治理方法,保障人工智能教育治理的前瞻性。
关键词:人工智能教育治理 ; 逻辑机理 ; 实践进路 ; 国际观察 ; 案例研究
目录概览
一、问题的提出
二、人工智能教育治理的国际观察:全球行动视角
三、人工智能教育治理的逻辑机理:国际案例的分析视角
四、人工智能教育治理的未来实践进路
五、结语
一、问题的提出
人工智能技术以势如破竹之态引发了第四次教育革命的转型和演进(塞尔登等,2019,第14页)。美国《为人工智能的未来做好准备》报告强调,人工智能加速扩大了社会对高阶人才的需求,智能应用已成为教育强基战略规划的重点(Executive Office of the President National Science and Technology Council Committee on Technology,2016)。《在英国发展人工智能产业》报告从国家战略层面呼吁,逐年增加人工智能博士学位,致力于培养人工智能专业型人才(Department for Digital,Culture,Media & Sport et al.,2017)。德国《高科技战略2025》进展报告明确将人工智能技术视为国际竞争地位与教育创新的“未来武器”(Bundesministerium für Bildung und Forschung et al.,2019)。联合国教科文组织认为,人工智能教育持续健康发展的基石,在于如何打造学习场域的智能化、学习形态的个性化、评价体系的精细化、教育管理和服务组织的科学化(联合国教科文组织,2017,第37页)。可以说,人工智能作为发挥“头雁效应”的新兴技术,在教育领域掀起了一股发展热潮。
在人工智能的时代潮流下,教育生态的内涵进一步丰富,外延也不断被拓展,但技术在赋能教育的同时,也衍生了系列不容忽视的问题。有研究发现,人工智能教育并未达到预期的实践成效,领导决策者和一线教师对智能应用的采纳意愿和价值认同普遍偏低(卢宇等,2021;张珊珊等,2020;Knox,2020)。也有研究从智能应用的风险出发,指明了人工智能教育实践的关键挑战(冯锐等,2020;谭维智,2019;李世瑾等,2021;侯浩翔等,2019)。不管是人工智能教育成效不尽如人意,还是应用进程中面临的风险隐忧,正是人工智能教育生态失衡的现实表征。这是因为,教育生态是一个内生复杂的耦合系统,包括教育主体与外部环境之间关系运动的总和(范国睿,2000,第26页)。当人工智能技术介入教育生态时,从内在逻辑来看,人工智能技术与教育系统本原的测不准性,加剧了人工智能教育生态融合的复杂性;从外在逻辑来看,智能技术的介入更新了治理主体、治理内容以及治理路径等要素,一旦教育工作者无法科学监管组织体系时,由“社会—技术”交互所引发的复杂性因素将会以风险形式释放出来。
应对人工智能教育生态失衡的关键是科学治理,而厘清其逻辑机理则是有效治理的坚实基础。因此,本研究将人工智能教育生态视为治理对象,运用国际观察与案例研究方法,通过对比全球12份人工智能治理的战略行动,拓展人工智能治理的全球思路,并以新西兰人工智能协同监管实践项目为例,厘清了人工智能治理的实践流程及对教育治理的行动启发,寻求人工智能教育治理的逻辑机理与实践进路,培育人工智能教育前瞻管控、科学推进的中国土壤。基于此,本文重点回答如下三个问题:(1)人工智能治理的前瞻举措(包括全球行动框架和重点突破)有哪些?(2)就具体实践过程而言,人工智能教育治理依循了何种逻辑机理?(3)人工智能教育治理的未来变革方向与实践进路是什么?
二、人工智能教育治理的国际观察:全球行动视角
由于目前人工智能教育治理的经验基本处于起步阶段,且源于自然科学、社会科学、技术科学三向交叉的人工智能技术,其教育应用的实践风险涵盖了政治、经济和社会等不确定性和不可预知性的因素,因此,为汲取人工智能教育治理的有效经验,必须放眼全球的行动战略和经验模式,通过梳理国际典型的行动政策、监管模式与治理框架,开拓教育领域本土化和创新化的治理举措,才能建构系统化、本土化的人工智能教育治理框架。
纵观全球行动战略,人工智能治理受到世界各国政府部门的广泛重视。各国抓住人工智能这一科技动力,纷纷制定国家层面的人工智能战略规划,科学监管人工智能技术应用的推进方向。为了保证研究样本的全面性,我们分两轮遴选了近5年人工智能治理的相关报告。第一轮采取“直接式”检索途径,筛选“人工智能治理”“人工智能教育治理”等主题的政策报告;第二轮采取“滚雪球”方式,利用引文追溯的途径获取更多资政报告。两轮桌面调查结束后,通过阅览报告内容,删除不符合标准的样本8份,最终获取了12份人工智能战略规划,结果如表1所示。由表1可见,上述人工智能治理的行动举措,直接指向教育领域治理经验的极少。相比之下,人工智能技术在交通、安防、医疗、电子等行业的现实条件和应用场景更加丰富,其治理流程和应用示范也较为成熟。所以,人工智能教育治理的创新经验需要全方位考量世界各国的特色举措,通过进一步对比全球治理行动的具体做法,为教育创新治理沉淀证据和积累经验。各国人工智能治理行动异同的具体分析结果如图1所示。
表 1 全球人工智能治理行动举措
图 1 全球人工智能治理行动的异同分析
从思想内核来看,全球12份人工智能治理战略行动呈现出“包容式”和“审慎式”两种形态。所谓“包容式治理”,即充分肯定人工智能的技术优势和情境效应,重视搭建开放包容的应用环境,强调治理的情境性和变通性等现实关照。例如,联合国教科文组织发布的《北京共识——人工智能与教育》强调,对与新兴人工智能发展影响相关的前沿问题进行前瞻性研究,推动探索利用人工智能促进教育创新的有效战略和实践模式。所谓“审慎式治理”,即多元支持联盟采用证据导向的多元协同治理范式,尤为关注人工智能技术安全、伦理准则以及决策行动的规范治理。诸如英国《人工智能:未来决策制定的机遇与影响》等政策报告,尤为关注人工智能发展所带来的现实风险,明确了治理决策的问责机制、数据算法、伦理安全等方面的具体举措,它们更加重视安全问题而更显治理的稳健性。
从治理过程来看,全球12份人工智能治理战略行动都彰显了技术重塑应用领域的价值准则、伦理规范以及发展方向,具有如下特点:一是共享协同化,即建构多边、民主、适用的治理体系,以应对资源的强流动性、潜在风险的强扩散性、复杂生态的不均衡性、伦理标准的区域差异性等现实挑战。其中,法国《国家人工智能研究战略》就明确提出,基于协同治理原则,保障个人数字权益和公共服务体系。二是关联系统化,即以系统方法审视人工智能技术应用的宏观、中观以及微观问题,综合考量应用成效、安全伦理、社会关系、民生福祉等现实情境。例如,印度发布的《人工智能国家战略》就强调人工智能的整体战略部署对“AI for all”的目标实现至关重要。三是决策证据化,即充分考量证据导向的规则和机理,通过分布式数据采集服务,挖掘海量规模的异构数据,并采用语义分析、跟踪、脱敏和同步等治理策略,统一对过程性数据进行机器解释、分层与标签化,最大程度激活数据在各应用系统之间的活性,实现证据导向的精准施策与共享共治。这也是美国《为人工智能的未来做好准备》中“以证据为基础进行验证和确认”的治理内核。四是架构精准化,即通过对全域数据的失范现象进行矫正和监控,形成精准把脉、精准施策、精准服务的数据闭环,规范人工智能治理的科学化和透明化。如日本通过收集、存储和利用“真实数据”,在“从数据到产品再回到数据的良性循环”中实现“超智能社会”的创新目标。
经过综合分析我们发现,新西兰人工智能协同监管项目涵括了“包容式”和“审慎式”两种形态,完整诠释了“共享协同化”“关联系统化”“决策证据化”以及“架构精准化”的内涵特色,治理经验因具有创新特色成为示范标杆并被广泛推广。基于此,我们将进一步运用案例分析的研究方法,通过分析其治理流程和实现条件,以期为创新人工智能教育治理的逻辑机制和实践进路提供启示和借鉴。
三、人工智能教育治理的逻辑机理:国际案例的分析视角
对人工智能教育应用的失衡现象进行有效治理,关键是厘清科学治理的逻辑机理,指引未来实践的努力方向。在全球人工智能治理举措的经验驱动下,适宜选取单个案例的研究方法(Eisenhardt, & Graebner,2007),深度分析其治理的关键流程和实现条件,进一步启发人工智能教育创新治理的内在逻辑与实现机理。
(一)国际案例遴选标准
综合人工智能治理共享协同化、关联系统化、决策数据化和架构精准化等特性,进一步围绕治理证据、治理过程和治理效益等遴选标准,我们选取新西兰人工智能协同监管项目作为案例分析对象,主要有如下三点原因:
一是多元支持联盟的治理证据。新西兰人工智能协同监管项目由新西兰政府和世界经济论坛第四次工业革命中心(the World Economic Forum’s Centre for the Fourth Industrial Revolution)联合主导,同时广泛汲取政府、企业、社会和学界等多元支持联盟力量,协同建构治理的实践机制与规范秩序。该项目容纳了多元支持联盟的动态治理证据,借助了智能算力集成、自动化的联动服务和透明化的共享机制,其治理架构更具系统性和包容性,再加上它在社会各界的治理证据和杰出表现等,保障了治理进程与实践效能的一体化。
二是具有创新特色而广受赞誉。新西兰人工智能协同监管项目采用“包容式”和“审慎式”相融合的治理思想,通过动态灵活的治理框架以及可操作的实践流程,及时更新治理方向及推进举措,并辅以风险监控机制降低其应用进程的意外或风险,全方位保障了人工智能治理的科学性和有效性(World Economic Forum,2020)。与此同时,在治理进程中孵化生成的方法路径、技术工具等,可使多元支持联盟立体监管治理进程及实施“一站式”干预服务,通过集约化的协同治理流程以及多元融合的创新资源等,助力多元支持联盟区域的联通与合力流动,从而提高跨域视角的整体性治理和增值性评价。可以说,新西兰人工智能协同监管项目的特色做法在世界处于领先地位,是人工智能治理领域的创新标杆。
三是治理进程被示范推广。新西兰人工智能协同监管项目采用证据迭代的协同方法,在管理和利用人工智能技术的实践进程中,通过具体操作情境和规范治理流程,成为人工智能技术生态有效治理的成功范例。具体包括如下建设规划:一方面,长期重视多元支持联盟的利益诉求和智力支持,在社会生态视域内构建整体性治理的行动耦合,成为人工智能协同治理中具有突破性和示范性的创新项目。另一方面,因其以多元支持联盟统筹治理的一体化而形成即时感知、高效执行的治理样态,推动跨域多层治理体系的融合与共生,最终以协同共治路径实现价值共创的善治目标。总之,客观考量新西兰人工智能协同监管项目的行动经验和实践流程,可以为人工智能教育治理的内在逻辑与实现机理提供直接借鉴经验。
(二)新西兰人工智能协同监管项目的具体示范及教育启发
新西兰人工智能协同监管项目始于2019年,遵循“审视→协同设计→测试→推广”的实践流程,打造多元支持联盟的联动结构,制定协同治理的对话框架,落实区域治理的行动举措和监督规制,同时辅以治理工具和促成条件等支持,保障了人工智能治理的系统性和整体性。具体项目进程如图2所示。
图 2 新西兰人工智能协同监管项目进程
新西兰人工智能协同监管项在实践推进中采用证据导向的治理方式,严格围绕三个重点领域,最大程度地调动多方力量,共同设计人工智能治理的可操作性框架:一是通过包容性的全国对话,获得推广人工智能技术应用的社会许可;二是通过明晰的监管设计,提高多元支持联盟对人工智能治理的理性认知与协作水平;三是通过灵活的风险与效益评估,有效降低人工智能生态系统的相关风险,最大化地实现人工智能技术应用的实践成效。具体如图3所示。通过审视其内涵要义及关键治理流程,我们能够清晰地看到人工智能教育治理的实现条件和逻辑机理。
图 3 新西兰人工智能协同监管项目框架
1. 全国对话
舆论开放是人工智能治理的关键举措。通过营造包容互动的组织氛围,鼓励多元支持联盟积极发布舆论建议,形塑创新信任、协同设计的多元支持氛围。为了践行开放导向的对话愿景,新西兰人工智能协同监管项目遵循“规定→发现→决定→设计→分析→检查”六步走计划,保障了话语决策的平等化和多元化。其中,规定即充分考量技术治理的基本原则、动态逻辑和领域范畴;发现即了解监管体制和技术应用进程中的具体瓶颈,以及多元支持联盟的应用情况与实践期待;决定即依据多元支持联盟的最新动态,确定技术治理的组织团体、参与程度、工具支持等,保证治理进程的协同化与秩序化;设计即结合预期的实践成效,交流构思多元支持联盟协同治理的行动模式与具体方案;分析即审视多元类型的信息源,并将动态结果随时反馈给参与者,进一步迭代优化技术治理的行动规划;检查即评估全国对话的整体流程,持续跟进多元支持联盟的动态意见,为科学决策和有效治理提供直接依据。
不难发现,新西兰人工智能协同监管项目关注开放包容的互动对话,这也为人工智能教育治理的情境创设提供了思路。一方面,我们应建立“去中心化”的情境共识,扩大多元主体的互动范围,特别是包容话语权较小的弱势群体,鼓励其积极参与舆论对话,协同助力人工智能教育治理的多元路径。另一方面,要汲取跨领域的创新做法与组织经验,同时扩大人工智能教育应用的多元场景,丰富并拓展人工智能教育治理的证据库。
2. 监管设计
监管设计是人工智能治理的内生力量,遵循“事中—事后”系统化监控的基本理念,充分调动多元支持联盟的协同力量,探查人工智能技术应用进程中的关键瓶颈,平衡人工智能技术创新发展与有效治理的关系,循序释放人工智能所带来的技术红利。新西兰试点项目通过一体化的监管问责机制,寻求政府、企业、机构组织等合力,共同探讨人工智能治理的核心举措与发展方向,着力推进多元支持联盟的资源共享和业务协同。
具体来说,新西兰人工智能生态的监管设计重点考虑变革情况、远见卓识、授权权力、功能形式、资源条件以及治理问责等内容。其中,变革情况关注监管背景与版图、监管治理的组织架构以及监管问题等核心要素;远见卓识致力于从治理状态、透明式反馈以及治理期待等方面描绘技术生态协同治理的未来愿景;授权权力重点考量权力来源、权力范围以及治理差异等触发事件;功能形式包括多元支持联盟在治理进程中的角色定位、活动组织以及行动举措;资源条件主要涉及多样态的资源类型以及内外联动的人工智能监管证据库;治理问责关注“元治理”样态、监管问责机制以及多元支持联盟协同治理的影响效果。
不难发现,新西兰人工智能协同监管项目尤为重视多元支持联盟的协同监督。这也意味着,人工智能教育治理的科学推进,理应建立在多元主体协同推进的基础之上。例如,应积极调动“家—校—社—企”等多元支持联盟的参与意愿,根据现实需求明晰多元支持联盟的角色定位与权责界限,动态调整监管团队的组织架构,努力消除片面监管、重复监管等模糊认识及错误做法。此外,还应打破监管机构的分割线,统筹多方支持联盟协同治理技术生态,推动单一部门的孤立式监管向跨部门、跨平台、跨区域协同监管方式的转变。
3. 风险与收益评估
风险与收益评估是人工智能治理的基础保障。通过建立人工智能技术生态风险管控的预警机制,识别、监测并降低技术应用进程中的潜在风险,能够大大增强治理行动的科学性和有效性。新西兰人工智能协同监管项目通过探索人工智能技术的应用情境与作用机理,同时结合产业变革与公众权益的审查和问责流程,构筑了张弛有度、兼顾创新与安全因素的治理机制。
其中,实践路径、风险周期、应用效益以及权责文化等是新西兰人工智能风险与收益评估框架的主要内容。在实践路径方面,遵循“选择合理—多元主体—最佳实践”的评估路线,通过汲取多元支持联盟的经验以及规范技术应用场景的协同进程,从而形成最佳的行动方案与实践路径。在风险周期方面,技术治理生态的整个生命周期,需要围绕具体案例方法,设计协同联动的操作框架,以及制定风险与效益的优先时序方案,平衡多元支持联盟的利益冲突。在应用效益方面,应充分满足多元支持联盟的利益诉求,建立技术有效性、伦理安全性、用户体验等具体绩效指标体系,和多元支持联盟的数字信任以及安全保障机制,从而形成技术治理的预警数据流。在权责文化方面,明晰多元支持联盟的权责及其对技术治理的贡献度,利用追踪技术建立治理机制的责任归属路径。此外,通过多元支持联盟的交叉协作、专用平台的知识分享,形塑可行的、有效的协同治理文化氛围。
我们发现,在新西兰人工智能协同监管项目中,风险与收益评估的重心在于框架设计和应用调制,其具体操作流程和治理要点为人工智能教育治理提供了可行的参照。其中,框架设计强调治理进程的通用性原则,基于多元支持联盟的协同参与,规范技术生态、社会秩序以及多元利益等方面的治理冲突。应用调制关注治理进程的适配性原则,系统考量风险水平、应用情境以及多元支持联盟差异化的治理诉求,重构多元的、立体的、完善的治理结构,保障人工智能教育在动态复杂的实践情境中发挥功效。
(三)人工智能教育治理的逻辑机理
人工智能技术正以前所未有的速度和规模重塑着教育生态系统,若要进一步发挥人工智能的“头雁效应”,降低技术应用的潜在风险,则需基于内生机制的经验规律,赋能人工智能教育治理的典型应用场景和关键行动举措。通过汲取新西兰人工智能协同监管项目的成功经验,有助于拓深治理进程的关键要点,为人工智能教育治理的前瞻性、针对性和可操作性,提供科学高效的示范指引。总体上而言,人工智能教育治理依赖于开放包容的系统情境、支持联盟的协同教化以及科学完善的监管机制,其逻辑机理如图4所示。
图 4 人工智能教育治理的逻辑机理
1. 开放包容的系统情境是前提条件
开放包容的系统情境作为人工智能教育治理的前提条件,制约着协同治理的创新氛围和发展方向。前人的研究已证实,实现“技术生态位—市场生态位—范式生态位”的跃迁蜕变,需要基于开放包容的系统情境,打造技术生态协同治理的孵化基地(Verbong et al.,2010)。
具体到人工智能教育治理进程中,需致力于从以下四个方面保障系统化的治理情境。一是协同治理的发展愿景,即呼吁“家—校—社—企”等多元支持联盟,组建共同信念与动机的实践群体。基于多元支持联盟的协同力量支持,进一步消除人工智能教育应用的路径依赖及其锁定效应,实现技术生态的“善治”目标(Barrie et al.,2017)。二是开放对话的舆论平台,通过构建公平、尊重、开放、包容的全国对话环境,对人工智能教育应用风险进行舆情管控,同时构筑多元支持联盟的共识信任空间。三是合理有效的权责分配制度,使得管理者、教师、学生和家长等多元主体在协同治理进程中各辖其域,并基于区块链技术建立“契约中间人”的合作关系,保障治理组织联动创新和监管施策的透明化和扁平化。四是协调统一的互动联结机制,基于共享共生的联袂原则,努力打造多元支持联盟协同参与的“泛技术治理生态圈”。例如,通过新型协同理念、互动方式以及评估决策,打破联盟内部的交互壁垒,建立不同教育主体之间的长效联动机制,实现人工智能教育治理的低风险和高效益目标。
2. 多元支持联盟的协同教化是中坚力量
多元支持联盟的协同教化关系是技术治理的中坚力量。这是因为,技术生态从来都是复杂交互的动态过程,加之原有生态的“超稳定性”,造成教育生态未能承载人工智能技术介入的现实窘境。在这种情境下,必须建构学校、科研机构、研究所、社会团体等多元支持联盟的协同教化关系,即遵循“协同空间→协同时间→协同物界”的交互路径,共同推进技术治理的层次化、系统化和透明化。
基于“自上而下”与“自下而上”的联动思想,人工智能教育治理应遵循如下逻辑要点:一是协同监管的政策体系。基于人工智能技术应用规范和人机协同秩序的顶层框架的保障,协同探索数据滥用、隐私安全、技术伦理等治理举措,并从行动惩戒的立法层面,积极引导人工智能教育治理的正面效应和实践期待。二是透明的问责机制。通过审查人工智能教育系统设计与应用流程、数据技术过程性与结果性的统一、技术治理成效等关键环节,建立多元支持联盟的权责体系和问责制度,致力于人工智能教育治理“外部问责催生内部协同”的推进范式。三是协同动机的共振机制,即建立平行、双向的协商治理模式。这种机制下,即使多元支持联盟在协作互动中因政策干预、责任重叠或行事差异等原因产生冲突摩擦,但因拥有协同治理的互动成分,例如有原则的参与、共同动机以及联合行动的能力,故可实现协同治理的民主化和可持续化(钱旭鸯,2019)。四是协同纽带的正向催化,即通过灵活演化的中枢纽带,形塑政府主导的共识空间、市场编织的创新空间、学界生产的知识空间以及公众催化的互动空间等,并利用内外双向驱动的联结优势,打造人工智能教育治理的协同创新模式。
3. 科学完善的监管机制是动力保障
科学完善的监管机制约束着治理进程的推进速度,也决定着人工智能协同治理的实践成效。而且,动力保障的正向驱动因子愈多,愈容易在短时间内获得较满意的人工智能治理成效(Emerson, et al.,2012)。
在人工智能教育治理进程中,在秉持“包容式”的驱动因素时,也需融入“审慎式”的监管行动。首先是“家—校—社—企”等多元支持联盟的协同意愿支持。遵循“认知→说服→决策→执行→确认”这一技术扩散路径,将多类型、多维度、多阶段的实践证据转化为有效治理决策,实现“资源—过程—价值观”一体化的治理进程。其次是内外驱动的激励机制。通过价值认同、绩效期望等内在保障,以及制度支持、资源保障等外部支持,提升多元支持联盟主动参与人工智能教育治理的意愿和动机。再次是协同创新的文化氛围。通过积极互动的治理氛围,缓解弱势联盟群体参与治理的技术压力,提升多元支持联盟协同治理的价值感知与行动能力。最后是严格透明的风险预警机制,确保技术应用与风险治理的逻辑自洽。通过在纵向时序与横向空间中审视潜在风险及其发展规律,平衡人工智能教育生态风险中不确定、非线性、不可知方面的因素,同时结合现实情境与支持条件,将风险因子进行结构化处理,有序演化人工智能教育治理的进阶轨迹。轨迹。
四、人工智能教育治理的未来实践进路
人工智能技术具有重塑教育生态的巨大潜力,其与教育系统融合的复杂过程,应遵循灵活适应的治理路径,打破技术应用进程中的隔膜与障碍,保持人工智能教育系统的动态平衡。本研究采用国际观察与案例分析的方法,通过对比全球12份人工智能治理的行动举措,并以新西兰人工智能协同监管实践项目为例,详细阐释了全国对话、监管设计、风险与效益评估等人工智能治理的具体示范及对教育治理启发,为人工智能教育创新治理的逻辑机理提供了直接经验。基于机理探索,我们认为未来人工智能教育治理的关键,在于打造开放包容的治理场景,推动人工智能教育治理的系统性;形塑多元协同的治理机制,提升人工智能教育治理的有效性;应用动态预测的治理方法,保障人工智能教育治理的前瞻性。
(一)打造开放包容的治理场景,推动人工智能教育治理的系统性
人工智能技术重构教育生态是未来教育发展的必由之路。如何让正在或即将进入教育场景的人工智能技术成为“好技术”或“好工具”,亟需打造开放包容的治理场景,适应智能生态的多元情境,推动人工智能教育治理的系统性。
首先,营造开放包容、共治共享的人工智能教育生态氛围,打造有温度的治理流程。例如,通过“家—校—社—企”等多元支持联盟的互动联接渠道,广纳社会各界关于人工智能教育治理的根本诉求、智力成果和组织资源,形塑智能生态良性治理的新秩序,实现技术治理的数智化、互联化和动态化(阿柔娜,王松,2021)。
其次,健全人工智能教育治理的发展战略、政策体系和实践场景,即从法律规制、伦理引导、预警防控和追责机制等方面,提供人工智能教育生态风险治理的有效措施。具体来讲,在法律规制方面,加强多元支持联盟的治理认知,运用法治思维推进人工智能教育治理的有序耦合,出台多元化、层次化的治理方针、愿景规划和政策文件等。在伦理引导方面,规范教育数据采集、汇聚、分析和运用等过程,建立数据共享、分层管理的保障体系,实现全局数据字典的系统化治理。在预警防控方面,积极利用智能化数据资产平台,理性洞察及预测未来教育生态的发展态势,同时建立教育数据采集、融合、分析、存储、监控的风险管理机制,提前化解治理的应用误区和潜在风险。在追责机制方面,明确多元主体的关键职责,形塑人工智能教育治理的基本原则、实施路径以及关键举措,推动多元支持联盟协同应对治理风险。
最后,发挥人工智能教育治理的联动效应,即扩散人工智能技术在智慧校园、智慧学习、智慧课堂、智慧考试、智慧评估等领域的积极效应,激发多元支持联盟参与治理行动的创新意愿。例如,借助国际组织的内在张力与治理愿景,最大程度地调动多元支持联盟参与技术治理的路径、内容与理据,从而消除教育治理的联动壁垒和文化隔膜,保障人工智能教育治理的系统性、安全性和发展性(沈伟,2019)。
(二)形塑多元协同的治理机制,提升人工智能教育治理的有效性
协同治理决定着未来教育发展的实践进路,也为预警管理、趋势预测、精准决策等提供科学依据。明确“家—校—社—企”等多元支持联盟的基本属性,打造支持联盟协同治理的创新机制,最大限度地实现人工智能教育治理的科学化、公平化和安全化。
一是激活多元支持联盟协同治理的内在动机。通过政策引导、示范激励、投入保障等方式,以及名师工作坊、项目培训和讲座活动等途径,强化多元支持联盟对人工智能教育治理的责任感知。同时,推广人工智能教育治理“全球利益共同体”的创新理念,高度重视教育生态协同治理的智库建设,形成人工智能教育治理的中国智慧与经验(王运武等,2020)。例如,通过汲取协作项目、协作标准以及联动领导力等治理经验,积极推动协同机制的稳健运行,提升协同治理组织的业务水平能力。
二是制定协同治理规则,强化多元支持联盟协同创新的共建、共享及共流。例如,充分发挥政府主导、市场支持、学界创新、公众监督等协同优势,推动人工智能教育生态“学—教—评—管”的创新型发展,具体包括学生的学习成长、教师与技术协同创新的教学过程、数据驱动的智能决策和精准管控等流程,实现人工智能教育治理的耦合层级目标。
三是明确多主体权责,建立技术研发、应用实践等全流程的问责机制。在这个过程中,充分联动社会、政府、学校等多元支持联盟的协同力量,围绕算法规则、数据标准、安全机制等内核,持续提升协同治理能力。例如,联动政府决策功能,预判人工智能技术对教育生态变革的影响趋势。同时,结合不同区域的学校特色,建立“技术解锁学习—网络升级学习—改革重塑学习—动机激发学习”等一体化的治理体制(朱永新等,2020)。此外,发挥社会群体力量,带动更多角色群体主动参与教育治理,提升人工智能教育生态的监督、管理和评价水平。
(三)应用动态预测的治理方法,保障人工智能教育治理的前瞻性
人工智能教育治理高度重视教育的基本功能与责任使命,致力于实现风险预估与前瞻性判断等目标。采用何种动态预测的治理方法,才能提前为教育系统布局?这将是未来人工智能教育前瞻性治理的关键任务。
一方面,通过教育社会实验,积极探索教育治理的风险和难点,有序推进人工智能教育生态演化的适应性和价值性。所谓教育社会实验,即在教育教学的实践基础上,研究者能动地探究教育教学实践活动,发现和认识教育教学规律的过程(黄荣怀等,2020)。许多国家近30年间大量教育社会实验的成果,成为技术伦理和政策指引的理论根基。有鉴于此,需构建“以人为本”的人工智能教育社会实验体系,形成“以问题为导向”的前瞻性治理举措。例如,从“宏观—中观—微观”视角,分别开展不同内容、不同层次的人工智能教育社会实验,通过持续观察、跟踪、干预等过程,探索人工智能教育生态的典型应用场景,形成人工智能教育治理的共享原则、行动经验和政策法规。
另一方面,采用多主体仿真实验,从复杂系统视角审视人工智能、社会、教育等要素之间的互动关系及变化规律。通过人工智能支撑的社会化计算方式,跟踪解析教育各要素随时间及空间的演变历程,阐释人工智能教育理念下未来学校、体制要素、服务模式和治理体系等内生机理,前瞻性地预判教育生态的典型治理场景,进一步形成实践层面的操作路径。同时,针对治理进程中的潜在风险和负面效应,提前采取针对性的干预措施。
此外,从社会伦理的全新视角出发,重新审视多元支持联盟的思维方式、价值观念和道德行为,进一步完善人工智能教育治理的法制体系,将人工智能教育系统中的数据隐私、伦理安全等风险降至最低(卢迪等,2020)。同时,针对符号化、超地域性、隐匿性的社会关系和实践情境,可利用区块链技术避免技术滥用危机,实现人工智能教育治理真实性、融通性的技术功效。
五、结语
人工智能作为引领教育创新的内生力量,它在为教育赋能的同时也衍生出了一系列不容忽视的现实挑战,因此在人工智能与教育深度融合的进程中,科学治理尤为关键。鉴于人工智能教育治理基本上还处于起步阶段,因此本研究充分考察了国际视野下的治理经验,通过对比人工智能治理的全球行动,并以新西兰人工智能协同监管项目为代表性案例,进一步厘清关键治理流程及对教育治理的启发。我们的研究发现,人工智能教育治理基于开放包容的系统情境、支持联盟的协同教化以及科学完善的监管机制等逻辑机理,可有效规避人工智能教育生态的测不准性、动态混沌性等复杂影响,也为人工智能教育持续健康发展提供有效保障。未来,如何利用多模态技术采集规模化的贯通数据,如何应用数据中台打通多源异构的教育数据,如何通过系列社会实验保障人工智能教育应用的规范化和精细化,以及如何采用多主体仿真实验洞察前瞻的干预措施等,将是人工智能教育治理的下一步战略规划。
中华教育改进社
建立于1921年,陶行知为主任干事,蔡元培、黄炎培、熊希龄、郭秉文等为董事,梁启超、孟禄等为名誉董事,主要成员还包含胡适、陈鹤琴等,作为当时中国最大的教育救国社团,有效地推动了中国教育专业化、科学化、世界化进程。
2011年恢复重建的中华教育改进社现有社员三百余人,已形成有志教育改进者相互切磋和激励的社群,专业化的第三方智库