在过去的几年里,关于人工智能这个潘多拉魔盒的讨论很多。但毫无疑问,它现在已经被广泛使用,以至于每篇SCI期刊文章都需要验证其真实性,关于文本和图像处理的问题越来越常见。
今年早些时候,在Research Ethics上Vasiliki Mollaki发表的一篇文章对SCI期刊编辑、审稿人和作者以及大型出版商使用基于人工智能的工具的政策进行了比较总结。
结果表明,大多数期刊都遵循COPE指南或WAME指南。这些作者指南归结为不将大型语言模型(large language model, LLM)归为作者,并在提交过程中披露使用情况和使用范围。
然而,尽管这些期刊为作者制定了结构,但许多大型出版商,如Wiley、Sage和牛津大学出版社,目前为审稿人提供的指导很少(或根本没有指导)。
Elsevier等一些出版商使用宽泛的语言来劝阻审稿人将手稿上传到人工智能工具,以遵守作者的数据隐私权。
除此之外,由于人工智能在写作领域已经变得无处不在,讨论开始从“作者使用人工智能写论文时会发生什么?”转向“审稿人使用人工智能评估文章时会发生些什么?”考虑到同行评审周及其在科学话语中的重要性,我们将简要介绍同行评审中人工智能的现状。
同行评审是学术界一项长期而重要的传统。同行评审通常被认为是创新研究和公众之间的最后一道防线,不幸的是,同行评审是一项需要高度耐心和时间的工作。
因此,确保科学手稿的质量审查变得具有挑战性。这导致一些倡导者在同行评审中或多或少地使用人工智能。
有合理的推测认为,如果LLM可用于为研究论文生成内容(有限制),那么该技术可能在全面评估作者的论文方面发挥一定作用。
去年,Donker发表了一份关于使用LLM进行同行评审的措辞严厉的报告。在他们的报告中,LLM成了一份似乎平衡得当的评审报告,但没有关于实际研究的关键内容。不过,它确实充分总结了论文和方法。因此,那些没有完全阅读手稿的人很容易将它误认为是人为撰写的评审报告。人工智能创建的此类评审报告对作者来说用处不大,却给编辑带来了更多麻烦。
当审稿人在不通知期刊或向作者披露的情况下使用人工智能工具时,这个问题会变得更加复杂。同行评审,虽然也是一种学术交流方式,但也是一种质量控制程序。
由于尚未开发出可靠的人工智能检测工具,期刊目前几乎没有办法检测此类人工智能评审报告。因此,当质量控制程序需要自己的质量控制方法时,尤其令人担忧。
当前人工智能生成领域的明显缺陷凸显了实施指导方针的必要性。如果没有具体的政策为使用人工智能的透明度或处罚提供指导,同行评审的完整性可能会受到质疑。
到目前为止,学术期刊一直依赖第三方组织来制定关于这一问题的指导方针,因此他们要么没有给出任何方向,要么完全禁止人工智能生成的同行评审。期刊很可能会等待更高权威的指导,然后再实施细致入微的政策。
截至目前,作者应该放心,他们的研究是由合格的学者而不是机器进行审查的。随着技术变得越来越复杂,这种情况是否会改变还有待观察。
本文来自LetPub英文官网,原文链接:
https://www.letpub.com/The-Evolution-of-Artificial-Intelligence-in-Peer-Review
快来把Accept抱枕带回家~
经费预存送大礼活动盛大启动!LetPub本次活动优惠力度空前,预存越多,京东卡返现越高,惊喜不设上限!更有全新礼品等你拿!苹果/华为平板电脑、投影笔、咖啡机、扫地机器人、无线耳机、双肩包、行李箱......诸多好礼应接不暇!除了可享受年度最大的优惠福利,预存款还可以让您从繁琐的多次报销流程中脱身,一次预存,全年SCI论文润色无忧!
如何办理预存?
第一步:提交预存意向;
第二步:签订协议;
第三步:完成付款后,开具发票(也可先开具发票再付款);
第四步:我们将根据您的套餐选择为您送出相应福利。
注:您可以通过个人账户或者专属客户经理随时了解账户预存款余额。
LetPub自2010-2024连续15年推出预存款服务,得到了众多实验室科研学者的喜爱,快点击链接提交您的预存意向吧!
LetPub论文编辑
扫码关注我们
助力您的SCI顺利发表