全球的科研工作者们也在第一时间应用上了ChatGPT,包括我们投必得在美国的团队也第一时间进行了体验,回想当时给我们带来的震惊至今记忆犹新,不过凡事有利有弊,AI在帮助科研工作者们在资料整理、数据分析和文献综述等方面极大提高工作效率的同时,它还会一本正经地胡说八道,生成看起来非常真实的欺诈性科学论文。AI也是一把双刃剑,在提升工作效率的同时,它也带来了一系列挑战,尤其是在论文原创性和学术诚信方面。
这引发了人们对科学研究的完整性和发表论文的可信度的严重担忧,为了不让AI野蛮生长,没有给我们带来更大便利之前先摧毁我们正常的学术秩序,所以各大期刊和高校都开始制定相关的规定,规范AI在论文写作中的应用,保障学术诚信。
01
高校和期刊对AI的态度
Science在AI开始影响学术界时就立即采取了严格的限制措施,直到ChatGPT正式面世一年后,Science才正式发文更新了AI使用的政策。主编们承认最初对ChatGPT等技术在论文文本和数据方面的应用采取了非常严格的立场,但他们一直在追踪整个科学界的想法和反应。现在,科学界对新技术所允许的用途有了更清晰的了解,所以期刊的编辑政策发生改变。
https://www.science.org/content/blog-post/change-policy-use-generative-ai-and-large-language-models
Science最新的AI使用政策是,如果作者在研究或撰写手稿时使用了AI辅助技术,他们需要在Cover letter和手稿的致谢部分注明这一点。在方法部分应提供详细信息,包括用于工作的完整提示、使用的AI工具及其版本,如果AI的使用不当,编辑可能会拒绝推进手稿。
ELSEVIER最新的AI使用政策中也有类似的要求,AI只能用于提高作品的可读性和语言,并且需要在论文中进行声明。
不仅是国外的学术期刊,我们国内的期刊和高校对论文中AI的使用提出了明确的要求,论文应由本人撰写,禁止使用AI代写,并且会对所有的研究生学位论文进行AI检测。
02
AI检测的目的
根据上述介绍,SCI期刊和国内高校都已经开始对论文中的AI撰写部分进行检测了,其实今后对于AI内容的检测会跟对论文重复率检测成为审稿前的“规定动作”,AI内容率如果超标也会跟重复率过高一样,会面临期刊的退稿,重复率检测大家都理解,检测AI内容的目的到底是什么呢?这里我举一个关于AI的学术不端新闻的例子。
中国地质大学(北京)教授署名论文的文章介绍部分出现疑似ChatGPT常用语,文章Introduction 的第一句话竟然是:“Certainly, here is a possible introduction for your topic”,基本可以确定论文是 ChatGPT 生成的,作者忘记删除了。
当时这件事引起了广泛的讨论,让大家更加诧异的是这个错误经过作者、编辑和审稿人的层层审核竟然没有被发现,这件事其实也印证了Science在另一篇文章中提到的数据,由 ChatGPT 创建的摘要被提交给审稿人人工审稿,只有 68%的摘要被发现是AI生成的。
https://www.science.org/doi/10.1126/science.adg7879
AI生成的文本极有可能毫无根据的胡编,会极大影响文献的可信度,如果不对AI内容生成进行限制,让 AI 生成的文本正常发表,这会大大影响到正常的科研成果交流,会极大增加同行在参考文献时的成本,甚至对他们造成误导,所以这就是AI内容检测会成为投稿必查项的原因。
看到这里大家可能会有一个新的疑问,除了用AI直接写文章外,我们还经常会用AI来帮助我们润色论文,这个会不会被判定为AI内容超标?
这个其实不必担心,AI检测主要是针对全部有AI生成的内容,这种内容是没有经过人工审核而容是毫无根据的,而AI润色是修改人工写完的内容,这部分内容表达是有根据的,AI修改的是语法,所以AI检测时是不会将润色部分内容计入统计的。