人工智能正在广泛应用于教育领域,包括个性化学习体验、自动反馈和评估、互动学习、先进的设计工具以及预测行业趋势等。
2024年7月8日,美国教育部教育技术办公室发布《利用人工智能设计教育:开发人员必备指南》(Designing for Education with Artificial Intelligence: An Essential Guide for Developers),旨在帮助开发者在创建面向教育领域的人工智能产品和服务时,确保安全性、安全性和可信度。
这份指导文件建立在美国教育部之前发布的《人工智能与教学和学习的未来:见解和建议》报告的基础之上,旨在为产品负责人、设计师、开发者等团队提供指导。该指南涵盖了从构建大型语言模型到部署聊天机器人等各种人工智能应用,目的是帮助开发者利用现有和新兴的人工智能能力来实现教育目标。
具体而言,报告提出来五个建议(报告链接:https://oet.wp.nnth.dev/wp-content/uploads/sites/3/2024/07/Designing-for-Education-with-Artificial-Intelligence-An-Essential-Guide-for-Developers-FORMATTED-06.14.24.pdf)
以下是内容详解。一、五个总体建议
建议一:为教学和学习而设计
关注教育特定的价值观和愿景,确保产品开发过程以教育者和学生的需求为中心。
教育价值观的重视:开发者在设计AI产品和教育服务时,应以教育为本,关注教育领域的核心价值,如以学生为中心的教学方法,以及重视教育质量和效果。
人本设计:提倡采用以人为中心的设计方法,将教育者和学生的需求、经验和反馈纳入产品设计、测试和改进的全过程。
教育者和学生的参与:鼓励开发者在产品开发的每个阶段都与教育者和学生进行深入交流和合作,确保产品能够满足教育实践的真实需求。
教育目标的对齐:开发者应确保其AI产品与教育目标和需求保持一致,如提高学术成绩、增强学习资源的可访问性和包容性等。
反馈循环:建立有效的反馈机制,以便不断从教育社区学习和调整,以确保产品能够适应教育环境的变化和需求。
建议二:提供理由和影响的证据
强调产品或服务应有明确的研究基础,并能够提供有关其有效性的证据,特别是对学生学习成果的影响。
证据基础的实践:开发者应清晰地说明其产品或服务是如何基于现有证据基础的实践来设计的,如果特定功能的证据尚不可用,应阐明包括这些功能的一般科学理由。 学生成果的明确性:开发者需要明确其产品或服务旨在改善的学生成果,并使用高质量的测量方法来评估这些成果。 证据的构建:开发者应寻求建立关于其产品或服务使用风险和结果的证据,并评估对教育者和学生的影响,特别是历史上服务不足的群体。
致力于确保AI产品和服不会加剧教育不平等,而是促进所有学生群体的教育机会和资源的公平分配。
算法歧视的风险:指出算法歧视可能不公平地分配学习机会、资源或学习成果,强调开发者需要积极测试和持续管理AI产品,以减少算法歧视的风险。
民权的法律框架:提醒开发者了解并遵守适用于教育环境的现有民权法律,并设计产品以符合这些法律要求。
数据集的偏见和代表性:强调训练数据集应减少偏见并代表教育用户的多样性,以避免在AI模型训练中传递和放大历史偏见。
通过这些讨论,该部分强调了在教育技术发展中推进教育公平、保护民权和提高技术可访问性的重要性,并为开发者提供了实现这些目标的具体建议和方向。
建议四:确保安全
保护学生和教师的数据安全和隐私,识别和管理AI产品可能带来的风险,确保产品的安全性和可靠性。
隐私和数据安全意识:开发者必须了解并遵守有关隐私和数据安全的联邦法律及相关指导,例如家庭教育权利和隐私法案(FERPA)、儿童在线隐私保护法案(COPPA)等。 风险管理:鼓励开发者识别、优先排序和管理超越隐私和网络安全的更广泛潜在风险,包括使用国家标准与技术研究院(NIST)的人工智能风险管理框架。 风险识别:开发者应识别产品可能带来的风险,包括在供应链中可能出现的风险,以及在产品开发和部署过程中可能新出现的风险。
通过这些措施,"Ensuring Safety and Security"部分强调了在教育技术产品中整合安全和安保措施的重要性,并提供了一个框架来帮助开发者系统地处理这些挑战。
建议五:促进透明度和赢得信任
通过公开沟通和与教育社区的合作,建立透明度,增强用户对AI产品的信任。
透明度的重要性:强调透明度是赢得用户信任的关键因素,包括对AI实现方式、数据处理、算法决策过程的开放和清晰沟通。 信任的定义:讨论了信任作为双方相互信心的关系,以及作为技术系统可确定属性的"值得信赖的系统"概念。 AI素养:指出开发者通过提高教育者、家长、学生和其他利益相关者的AI素养,有助于建立信任,同时缺乏AI素养可能导致对开发者保证的不信任。
通过这些措施和讨论,"Promoting Transparency and Earning Trust"部分强调了透明度在AI教育技术中的重要性,并提供了如何通过透明度和协作来建立和维护用户信任的指导。
二、优质AI 教育应用给出的公开文件范例
文档中提到的“Examples of Developers’ Public Documents about Responsibility”(开发者关于责任的公开文件示例)部分列举了若干公司如何公开其在人工智能领域的责任实践。以下是这些示例的概述:
DuoLingo(多邻国): 发布了其英语语言测试的“负责任AI标准”(Responsible AI Standards),涵盖了其对有效性和可靠性、公平性、隐私和安全,以及责任和透明度的方法。DuoLingo邀请公众对其文件进行评论。
(https://duolingo-papers.s3.amazonaws.com/other/DET%2BResponsible%2BAI%2BStandards%2B-%2B040824.pdf)
Khan Academy(可汗学院): 在题为“Khan Academy对负责任AI开发的方法是什么?”的文件中,讨论了Khanmigo辅导工具如何公开风险、评估和减轻风险、限制对其软件的访问,并对开发人员进行伦理教育。
(https://support.khanacademy.org/hc/en-us/articles/13965308352781-What-is-Khan-Academy-s-approach-to-responsible-AI-development)
Instructure: 发布了AI治理政策,讨论了负责任的AI使用、透明度和问责性、偏见和公平性、人工智能与人的协作、培训和教育,以及隐私问题。
Grammarly: 分享了其对负责任创新和发展AI的承诺,描述了它如何采取行动履行承诺,例如,“所有模型都经过偏见和公平性评估。我们的分析语言学家团队应用研究和专业知识来最小化偏见并应用用户反馈。”
Software and Information Industry Association: 与许多开发组织合作,制定了教育中的AI七项原则。
这些示例展示了不同组织如何通过公开文件来表达它们在开发和部署AI产品时对伦理和责任的承诺。这些文件通常涵盖公平性、透明度、隐私保护和对AI技术潜在影响的持续评估等方面。通过这些公开的责任标准和原则,开发者可以向利益相关者展示他们如何认真对待AI技术的责任问题,并寻求在创新和伦理之间找到平衡。
三、小结
《Designing for Education with Artificial Intelligence: An Essential Guide for Developers》对改善教育质量有以下几点启示:
人工智能在教育中的应用:人工智能在教育领域的应用可以提高教学和学习的效率和效果。例如,人工智能可以提供个性化学习体验、自动反馈和评估、互动学习等服务,帮助学生更好地掌握知识和技能
数据驱动的教育技术:数据是人工智能教育技术的核心。通过对数据的分析,可以更好地理解教学和学习过程的进展,并提供有针对性的支持和反馈,从而提高教育质量
人工智能在教育中的挑战:实现人工智能在教育中的应用需要解决多个挑战,包括技术专长不足、成本高、伦理问题等。这些挑战需要通过提供技术支持、控制成本、考虑伦理问题等方式来解决。
人工智能和人类合作:人工智能在教育中的应用不应取代人类创造力,而是应该作为人类能力的增强工具。通过人类和人工智能的合作,可以创造更有趣和有效的学习环境