澳大利亚已经制定了一个框架,以规范在学校使用人工智能(AI)的方式。这个框架是由联邦和州政府共同发布的,旨在推动生成式AI在教室中的常规使用。自从ChatGPT发布以来,已经过了一年多的时间,这个框架为学校提供了必要的指导。在过去的一年里,学校对这个技术有各种各样的反应,从完全禁止到尝试将其融入教学。
这个框架包括了六个主要原则和25项指导声明。这六个原则包括:教学和学习,包括学校向学生介绍这些工具的工作原理,包括它们的潜在限制和偏见;人类和社会福祉,使用工具以避免强化偏见;透明度,包括在工具使用时进行披露;公平性,包括为来自不同背景的学生提供机会;问责制,学校在使用工具之前对其进行测试;以及隐私、安全和安全,包括使用“稳健”的网络安全措施。
该框架每12个月进行一次审查。尽管如此,也需要注意一些问题。这个框架的重要性在于承认了这项技术的机会,同时也指出了福祉、隐私、安全等问题的重要性。然而,一些概念并不像框架所暗示的那样简单明了。作为教育领域生成式AI的专家,我们在过去一年里已经从乐观态度转变为更加谨慎的态度。就像联合国教科文组织最近警告的那样,“生成式AI技术被快速整合到教育系统中,没有得到检查、规则或法规的制约,其速度令人震惊。”这个框架将重大责任赋予学校和教师,要求他们完成可能没有资格或没有时间或资金完成的高风险工作。
例如,框架呼吁“可解释性”——但即使是AI模型的开发人员也难以完全解释其工作原理。框架还呼吁学校对算法进行风险评估、设计适当的学习体验、修订评估、与社区进行磋商、了解并应用知识产权和版权法以及通常成为生成式AI使用的专家。然而,由于不知道这是否可能实现或了解框架提出的风险的具体性质,目前无法实现这一目标。这尤其是当生成式AI的属性和道德问题复杂且存在争议时更是如此。我们了解这项技术并非万无一失——它也会犯错误。
我们认为在任何未来的版本中需要包含的五个领域如下:
更诚实的立场
我们需要明确的是生成式AI是有偏见的。这是因为它的训练材料反映了偏见,包括互联网上的内容。这些有限的训练数据主要是由白人、男性以及基于美国或西方的用户创造的。例如,当前版本的ChatGPT不使用澳大利亚原住民的语言进行表达。这种情况可能有正当的理由,比如未经许可就使用文化知识。但这也显示了其“声音”的白度以及要求学生使用或依赖它的问题所在。
更多证据
目前几乎没有研究证明在教育中使用生成式AI的好处。事实上,(联合国教科文组织最近的一份报告证实)几十年来在教室中使用数字技术对学习没有明显改善的效果。但我们有研究证明算法的危害性。例如,由AI驱动的反馈会缩小学生的写作范围并偏向白人声音。学校需要支持制定流程和程序来监督和评估教职员工和学生使用生成式AI的情况。
承认聊天机器人带来的危险
有长期的研究证明聊天机器人的危险性和它们损害人类创造力及批判思维的能力。这是因为人类似乎自然而然地信任机器人及其输出。框架应该明确说明哪些任务(低风险的)适合用生成式AI进行辅助教学,哪些任务不适合;而高风险的评估工作应由人工完成。
透明度
到目前为止,该框架似乎主要关注学生及其活动;所有使用生成式AI在学校中的情况都需要公开披露,包括教师使用生成式AI来准备教学材料和计划课程的情况。
承认教师的专业知识
全球教育技术市场截至2022年估计价值约为300亿美元(约4500亿澳元)。一些公司认为教育技术可以帮助监控学生的进步并取代传统上由教师执行的角色。澳大利亚的国家教育政策需要确保教师的角色不会因为人工智能的使用而降低。教师不仅对学科有专业知识,他们还对如何教授各种学科以及学生和社区的需求有专业知识。
来源:
https://this.deakin.edu.au/society/australia-has-developed-a-framework-for-ai-use-in-schools
中文内容仅供参考,一切内容以英文原版为准。