高校教师用AI生成申报材料,属失信行为!一地发文明确

教育   2024-11-27 15:01   河南  


随着人工智能技术(AI)的快速发展,AI工具的应用已广泛渗透至高教领域,导致不少师生在维护学术诚信方面面临严峻挑战,亟须对AI工具的使用进行规范,对AI工具的使用划出明确红线。

正如《人民日报》评论微信公号所言,“AI用途千千万,不包括作弊工具这一项”。

211高校教授,被质疑用AI写SCI论文

今年3月初,北京一211高校教授,在国际学术期刊上发表的一篇SCI论文,被网友指出文中包含与ChatGPT常用的指令性语言相似的表述,引发了广泛的社会争议。针对这一事件,该校校方在接受媒体采访时回应称:“论文的内容和数据是真实的,并没有造假,对于网友质疑的问题,学校目前正在调查中。”

“疑似ChatGPT表述”现象的出现,引发了人们对于AI介入可能削弱学术研究准确性与严谨性的深刻反思。

负责任的科学研究是推动科技事业健康发展的重要保障,是实现高水平科技自立自强的必然要求。为引导科研人员和科研机构、高等学校、医疗卫生机构、企业等(以下统称“科研单位”)开展负责任的科学研究,2023年12月,科技部监督司组织编写了《负责任研究行为规范指引》提出,不得使用生成式人工智能直接生成申报材料,不得将生成式人工智能列为成果共同完成人,不得直接使用未经核实的由生成式人工智能生成的参考文献等,明确划出了具体边界。同时,强调科研人员应把科技伦理要求贯穿到研究活动的全过程。


近期,山东省科技厅发布的《山东省科研诚信管理办法》中,细化制定了82种失信行为。其中明确规定:“使用生成式人工智能直接生成申报、评审、实施、验收、监督检查等材料”属于科研人员科研失信行为。

同时亦正如《科学》杂志更新的编辑政策所指出的,完全禁止AI工具的使用不太公平,也不现实。关键在于如何使用。首先,学术界需要更清晰、统一的规范来指导AI工具的使用。其次,研究者需要对使用AI的成果进行仔细的审查和编辑,确保其准确性和真实性。

AI作弊愈演愈烈,高校如何应对

毫无疑问,当前AI工具助推下的学术不端,已成为国内外高等教育机构共同面临的一个新问题与新挑战。

去年11月,Best Colleges调查了1000名在读大学生,了解他们对高等教育中AI工具使用的看法。调查结果显示,56%的受访大学生在作业或考试中使用过AI工具,41%的受访大学生表示没有,4%的受访大学生不愿意回答。


另外值得注意的是,大多数受访大学生(54%)认为,在学校作业或考试中使用AI工具能属于作弊或抄袭;超五分之一的受访大学生(21%)认为,使用AI工具能完成作业或考试不算作弊或抄袭;约四分之一的受访大学生持中立态度。

美国知名出版社Wiley今年7月发布了一份针对850名大学教师和2000多名大学生开展的调查报告显示,接近七成受访教师(68%)认为,生成式人工智能将对学术诚信产生负面或“显著”负面影响;接近一半的受访大学生(47%)表示,由于生成式人工智能的使用增多,作弊比去年更容易了。

该调查同时还显示,在生成式人工智能的帮助下,大多数师生都预计未来3年学生作弊行为会增加。


今年11月初,《泰晤士高等教育》的报道称,在该国的许多知名大学,涉嫌利用生成式人工智能进行学术作弊的案件较上一年度增加了15倍,由此处罚的学生数量也急剧增长。

为了规范AI工具的使用情况,无论是海外高校还是我国高校,都已经采取了相应的行动。

前面提到的Best Colleges的调查还显示,接近六成的受访大学生(58%)表示,他们的学校或课程有关于使用生成式人工智能工具完成作业或考试的政策;一成的受访大学生(10%)表示,他们的学校或课程没有相关政策,5%的受访大学生表示不知道;超过四分之一(28%)的受访大学生表示情况有所不同——有些课程或教授传达了政策,有些则没有。


据悉,那些课程确实有AI工具使用政策的受访大学生表示,相关政策是通过课程大纲(65%)、电子邮件(43%)或学生手册、荣誉准则(42%)告知给他们的。

视线转至我国。今年4月份,湖北大学、福州大学、南京工业大学以及天津科技大学等多所高校陆续颁布相关通知,宣布将在本科毕业生论文审核流程中率先试行引入针对文章采用生成式人工智能技术风险性的检测机制。其中,湖北大学明确指出,若某篇论文经检测后被判定为“AI代写高风险”,指导教师应指导学生对论文进行必要的修改;福州大学则进一步强调,检测所得结果将作为成绩评定以及优秀毕业论文评选工作的重要参考依据。

每一次科技的重大进步,都会对大众产生深远的影响。然而,AI工具绝对不能成为学术不端行为的辅助手段。

目前,利用各类工具或程序来检测涉及AI的学术不端行为,仍面临相当大的挑战与困难。面对高校究竟该如何应对并制定利用AI进行学术作弊的规则与规范这一难题,中国人民大学首都发展与战略研究院副院长郭英剑在《中国科学报》撰文时指出,“高校在进行相关工作时,应综合考虑AI技术的快速发展和传统学术诚信的要求,并在此基础上提出惩罚机制。相关机制既要严厉、有效,又需体现AI技术带来的特殊性。”

在他看来,以下因素是首先需要考虑的:

第一,明确AI使用的合法与非法边界。应明确学生在哪些情况下可以使用AI工具。应指定允许和禁止的AI工具。一些高校可能允许学生使用特定的AI工具(如翻译软件、数据分析软件等),但禁止使用生成文本或创作型AI(如ChatGPT)用于生成学术内容。

第二,加强学术诚信教育。一方面,应普及AI的使用伦理和责任,另一方面,应鼓励教师引导学生正确使用AI。教师可以在课程中演示合法的AI工具使用方式,并对学生进行指导,帮助他们在科研中合法利用AI技术,避免违规。

第三,建立AI生成内容的识别系统。一方面,高校可以引进AI生成内容检测工具,另一方面,要完善核查流程,规范发现AI生成内容的处理流程,包括内容核实、学生反馈、复查等,确保处理过程公开、透明。

结语

科技持续为人类福祉作出贡献的趋势未变。随着人工智能浪潮的兴起,面对这一时代所带来的机遇与挑战,高校师生一方面需保持警觉,防范人工智能可能引发的学术诚信问题,另一方面亦需积极把握时机,探索如何将人工智能有效融入并辅助学术研究之中。唯有如此,方能在人工智能时代的洪流中,非但不被淹没,反而能够顺势而为,扬帆远航。

本文来源于麦可思研究、科技部网站、新华网、澎湃新闻网等
河南高教融媒体矩阵

更多平台点击直达↓↓↓











河南高教
一号知晓高等教育大势,一号通达河南高校动态!《河南教育》(高教)杂志官方公众号
 最新文章