欢迎关注“湖南师大教科学报”
人工智能参与学位论文创作的法律规制
作者简介
摘要
随着技术进步与时代更迭,人工智能参与学位论文创作已是不争的事实。在现行法律规范体系中,缺乏就人工智能参与学位论文创作进行规制的针对性法律表达。人工智能参与学位论文创作会诱发学术不端、侵害相关主体法定权利的多重风险,呼唤着立法革新方案的出台。技术性正当程序与敏捷治理的立法引入,是因应相关风险进而促成法律革新的有效路径。技术性正当程序强调提升算法与数据技术的透明度,尤其是赋予学位申请人以透明度履行义务,这将助益于学位申请人在理解算法与数据技术的基础上,规范使用人工智能,从而尽可能规避学术不端的现实风险;敏捷治理则重在构建法律的协同共治模式,从而以多元规范、多维手段的方式防范相关主体法定权利受到侵蚀的潜在风险。
正文
一、问题的缘起
随着人工智能时代的降临,以生成式人工智能(AIGC)为典型代表的技术工具,正以前所未有之势参与到学位论文的创作中,此类工具依托强大的技术性能,在自然语言的分析、处理以及生成等方面均具备显著的效率优势,此种优势直接导致学位申请人乐于在学位论文创作的过程中引入相应的人工智能。对此,学位授予单位的态度则并不一致,香港大学等少部分高校就明确禁止学生在课堂、作业和评估中适用各类AI工具;而更多高校则采取了规范化约束而非一禁了之的态度,对学生如何在学位论文中使用生成式人工智能、生成式人工智能在论文创作中的合理程度等进行规定[1]。尽管实践中已有不少高校出台了校内的规范性文件或相关通知予以规范,但因为缺乏上位法的统一规定,各高校在实践中的做法差异较大。比如,浙江越秀外国语学院等高校明确规定,对于学位论文将试行生成式人工智能检测,如果检测结果疑似度高且经修改后依旧未达到相应要求的,将被认定为学术不端而直接导致学位申请人无法获得相应学位[2]。而与之相对,杭州师范大学等高校虽规定学位论文应当进行AIGC检测,但检测结果只作为评选优秀学位论文的参考依据,不作为认定学术不端的依据,因而也不会对学位申请人的学位获得权造成实质影响[3]。由此可见,不同高校对于人工智能参与所引发的学术不端风险有着不同的认定标准,如若上位法对相关问题缺失合理规定,那么高校较大的自主权极有可能会对学位申请人的权利造成限制。因此,通过法律进行预先规制便具备了现实必要性。
法律的预先规制并非无迹可寻。2021年3月,《中华人民共和国学位法(草案)》(以下简称《学位法草案》)第33条便曾对相关问题作出过规定,该草案第33条将人工智能代写学位论文纳入学术不端的范畴,并明确学位授予单位对此可以实施撤销学位的惩戒。尽管该条款在2024年4月出台的《中华人民共和国学位法》(以下简称《学位法》)中被删除,但这足以揭示人工智能参与学位论文创作可能会引发学术不端的风险。不过,目前我国仍未有专门规制人工智能参与学位论文创作的法律或规范性法律文件,以至实践中学生直接利用人工智能代写学位论文的学术不端风险频现。有学生直言:“毕业论文的致谢,最该感谢的是AI。”[4]除此外,人工智能在诱发学术不端风险的同时,也无形中诱发了学位申请人等主体法定权利遭受侵蚀的风险,这都在呼唤着人工智能参与学位论文创作的法律规制。本文的任务是在探讨当前法律规制局限性的基础上,分析人工智能参与学位论文创作引发的不同风险,进而提炼出针对性的法律规制路径,以期为规范人工智能参与学位论文创作贡献学理智识。
二、人工智能参与学位论文创作法律规制的局限分析
就现有教育法律体系来看,人工智能参与学位论文创作的法律规制局限突出表现为缺乏针对性的法律条款或规范性法律文件,极少部分与这一问题相对更密切的法律条款也呈现出明显的概括性特质,相关主体无法据此获得清晰的具备可操作性的法律规制方案。
在教育法律方面,《学位法》第37条规定,“学位论文或者实践成果被认定为存在代写、剽窃、伪造等学术不端行为”,相关学位申请人将不会被授予学位或被撤销学位。这里的“代写”显然包括人工智能代写论文,但本条并未对人工智能代写论文的规制作出特殊规定。《学位法草案》第33条则明确将“人工智能代写”列为学位撤销的事由之一,然而,其也仅是禁止人工智能代写论文,而没有对概念范畴更广的人工智能参与行为展开详细规制。除了《学位法草案》曾初步涉及人工智能参与学位论文创作的问题外,其他教育法律对该问题均未作出明确规定。比如,教育部颁布的《学位论文作假行为处理办法》《高等学校预防与处理学术不端行为办法》,也仅是将将剽窃、抄袭他人成果和由他人代写论文确定为学术不端,并未对人工智能的参与问题展开进一步规制。
在信息法律方面,《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第24条规定了算法透明和结果公正两项基本原则;《中华人民共和国数据安全法》、《中华人民共和国网络安全法》(以下简称《网络安全法》)建立了安全审查、安全问责等制度机制,对规范人工智能起到了指导作用;《互联网信息服务管理办法》、《网络数据安全管理条例(征求意见稿)》、《互联网信息服务深度合成管理规定(征求意见稿)》(以下简称《合成规定征求意见稿》)则针对算法应用的失范情形进行了初步规范。此外,作为专门针对算法技术的规范性文件,《关于加强互联网信息服务算法综合治理的指导意见》(以下简称《指导意见》)提出了算法应用公平公正、透明可释的原则;《互联网信息服务算法推荐管理规定》则针对算法黑箱、算法歧视等问题作出了明确规定,体现了算法安全、算法公平和算法向善的价值追求。
除上述两方面外,其他方面的法律规范也未展开针对性规制。以我国《著作权法》为例,根据该法第9条的规定可知,著作权人仅包括作者及依法享有著作权的公民、法人和其他组织,人工智能因不具备专属于自然人的思想、感情等要素而很难取得作者资格,经人工智能所创作的学位论文也就无法成为著作权法所保护的客体。由此可见,连人工智能都尚未被纳入现行著作权法体系的规范范畴之中,更遑论人工智能参与学位论文创作的问题了。此外,新近出台的《生成式人工智能服务管理暂行办法》(以下简称《管理暂行办法》)第3条确立了促进创新和依法治理相结合的原则,这就意味着对待人工智能参与学位论文创作,亦需要随着技术迭代而不断完善相关的规范体系,人工智能合理参与学位论文的合理边界重要问题都不应游离于法律规制的范围之外。
三、人工智能参与学位论文创作的风险审视
人工智能参与学位论文创作,不仅将促使隐秘的学术不端逐步泛滥,也会侵犯他人的知识产权等权益,甚至还会对学位申请人自身造成“反噬”,引发其隐私被泄漏等侵权事件。
1.诱发学术不端的风险
学位申请人在创作学位论文的进程中尽管可以接受他人的指导,但此种指导仅能作为协助学位申请人创作的辅助措施。而一旦人工智能全面参与学位论文创作,那么学位申请人仅需发出相应的指令要求,人工智能即可在短期内为其生成大段完整文字甚至是一篇完整的学位论文,抑或是通过强大的语言处理工具大幅度实现降低原论文重复率的目的。在以上情况发生时,学位申请人均以近乎坐享其成的方式获得了论文成品,因而属于典型的学术不端行为。具体而言,以下三类情形应归属为学术不端而受到法律规制。
第一,通过人工智能生成完整的学位论文。该情形属于最典型的人工智能代写学位论文,通过人工智能代写学位论文湮灭了学位论文中所应当呈现的学位申请人的独立思考与实质创作,判定该种行为属于学术不端自然是不言而喻的。
第二,学位申请人与人工智能都作出了实质性的学术贡献,且学位申请人以独著的身份申请学位。此时,就学位论文中由人工智能完成的内容而言,学位申请人即属于剽窃或抄袭,亦可构成学术不端。当然,有学者主张人工智能使用者对其生成内容享有著作权[5],若这一观点成立,则利用人工智能代写学位论文就不构成学术不端,故有必要对这一观点予以回应。这实际上包含两个具体问题,即人工智能生成内容是否受著作权保护,若受保护,则著作权人应该是哪一方主体。对于第一个问题,如若人工智能生成的内容不属于著作权法保护的对象,即不属于著作权法意义上的全新的“作品”,那么,此类内容本质上仍为数据库中存储的他人作品,学位申请人对之使用属于剽窃或抄袭他人作品,构成学术不端。对于第二个问题,如若人工智能生成内容受著作权法保护,那么著作权人是否应为学位申请人?部分论者主张应当根据人工智能服务提供者与使用者的贡献大小决定著作权的归属[6],亦有学者主张应将人工智能拟制为著作权主体[7],当然,也有上述主张将人工智能使用者界定为著作权主体的观点。我们认为,就人工智能服务提供者、人工智能本身以及学位申请人三者而言,学位申请人对生成内容的贡献无疑最小,其仅仅是输入了些许指令,尽管这些指令也是经过学位申请人深思熟虑后而发出的,但这种付出与人工智能服务提供者对算法与数据技术的研发,以及人工智能本身的复杂运算相比,是微乎其微的,学位申请人对人工智能生成的内容终究仅有间接影响,无法直接决定生成内容的“表达性要素”[8],故学位申请人不可能属于著作权人。反之,如若学位申请人属于著作权人,那么就会得出学位申请人通过人工智能代写学位论文属于合法行为的荒唐结论。
第三,通过人工智能为学位申请人的学位论文进行大幅降重。学位论文过高的重复率,或是因为剽窃、抄袭,或是由于在标明来源的基础上的过度引用。针对第一种情况,剽窃与抄袭本身就属于学术不端,学位申请人利用人工智能通过“洗稿”的方式使学位论文符合重复率要求,属于“二次学术不端”。针对第二种情况,在标明来源的基础上过度引用他人观点,即俗称的“通篇引用”,应属学术不规范而非学术不端。但是,学位申请人利用人工智能将该学位论文较高的重复率降低到合格线以内,则应被认定为学术不端,因为将文字较高的重复率降低到合格线以内,必然需要展开实质性的文字再创造活动,由此,学位论文中将出现大量非由学位申请人所完成的独创性内容,这就违背了学位论文应由学位申请人独立完成的学术伦理标准。
2.诱发侵犯多元主体权利的风险
其一,人工智能参与学位论文创作难免会导致对他人知识产权的侵犯。正因为生成式人工智能的本质是一种深度的学习模型,其学习行为必须借助一定的训练数据集而完成,所以一旦训练数据集中含有受著作权法保护的他人的文字作品或者学位论文,那么便极有可能产生侵害他人知识产权的风险。需要指出,我国著作权法保护的客体是具有“独创性”的作品,由权利人独立完成,并且满足“最低限度的创造性”的标准,均能被界定为属于著作权法保护的客体范畴[9]。换言之,著作权并未对“独创性”设定难以企及的认定门槛。在人工智能对训练数据集进行学习时,无论是他人的文字作品还是学位论文,都很有可能已经达到了著作权法所设定的保护门槛。因此,未经著作权人许可将其文字作品或学位论文纳入训练数据集,并借由人工智能对自然语言进行加工处理,将产生一定的知识产权风险。
其二,人工智能参与学位论文创作也对他人的个人信息安全构成了挑战。对于个人信息安全风险而言,生成式人工智能所学习的训练数据集中,无论是他人的文字作品还是学位论文中,均可能包含相应的个人信息,因此如果服务提供者在数据集开发之前未经相关个人同意擅自收集、使用相关个人信息数据的,就有可能构成对个人信息的非法收集。
其三,人工智能参与学位论文创作还有可能侵犯学位申请人自身的隐私权。人工智能生成学位论文的前提是其拥有巨大的语料库,该语料库近乎涵盖所有学科领域的基本信息,而语料库数据的获得则主要通过两种方式予以完成,一是人工智能通过爬虫技术主动抓取万维网信息,二是人工智能通过与使用者对话的方式获得相关信息。由此,学位申请人在与人工智能展开对话时,极有可能在不经意间将个人信息透露给人工智能[10],而后者在和其他人对话时则亦有可能将此类信息透露给对方[11],由此导致学位申请人隐私权被侵蚀。
其四,人工智能参与学位论文创作亦有可能侵犯学位申请人的知情权与选择权。人工智能本身依旧处于技术发展阶段,远未达到完美无缺的优势境地,因而技术的非完备性之中无可避免蕴藏着权利侵蚀的风险。比如,“算法黑箱”将人工智能选取、学习训练数据集的过程完全遮蔽,学位申请人根本无法全面获知数据集的来源与构成,其知情权因此受到限制。而“算法推荐”则阻断了学位申请人选取训练数据集的可能性,其无法将自己认为合适的他人文字作品或学位论文筛选成为训练数据集的客体,由此构成对选择权的限制。
其四,从长远来看,人工智能参与学位论文创作可能导致学位论文的立场偏差或内容失真,进而在学位论文的实践转化及应用时产生更多的权利侵害隐忧。算法与数据是人工智能的技术基础[12],然而,由于人工智能并不具备自我意识[13],故其既无法对人为设置的算法偏见予以抗拒,也无法对其语料库中真假并存的数据从源头开展真伪审查。算法的偏见和数据的失真进一步导致人工智能生成的学位论文在立场与内容方面可能出现歧视或错误判断[14],这是导致权利侵害隐忧产生的技术根源。
需要指出,虽然前述权利侵害隐忧与学位申请人的学位相关的权利无涉,但实践中高校的差异化做法却埋下了侵害学位申请人受教育权、学位获得权等相关权利的隐患。对于学位申请人而言,宪法和教育基本法在赋予其受教育权、获得公正评价权等基本权利的同时,也一并赋予其学位获得权等派生权利。可以预见的是,只要高校不加区分地将人工智能在学位论文创作中的参与行为界定为学术不端,那么学位申请人所享有的前述基本权利和派生权利均将无从实现,由此愈发凸显出如何合理界定人工智能参与边界这一问题的重要性。
四、人工智能参与学位论文创作法律规制的革新路径
如前文所述,人工智能参与学位论文创作所诱发的风险呼唤着法律规制的有效因应。根据人工智能时代因应此类风险的经验措施,“技术性正当程序”和“敏捷治理”分别成为应对学术不端以及权利主体受侵害风险的方案。前者从技术角度促使人工智能的规范化使用,而后者则为技术的适用构筑了监督之维,能够有效避免相关主体以技术进步之名侵蚀相关主体的法定权利。
1.技术性正当程序:因应学术不端风险的技术方案
算法与数据是人工智能的技术基础,算法是人工智能开展运算时需要遵循的过程或规则[15],数据则是人工智能运算所依赖的基础资料。对人工智能而言,机器算法是手段,数据存储是基础[16],人工智能参与学位论文创作的过程及其生成的内容完全受制于算法和数据的运行状况,但算法和数据的潜在偏见或歧视则直接导致了人工智能参与学位论文创作所引发的学术不端风险。这种学术不端内含了显著的技术要素,通常意义上的应对方法显然难以对其展开有效规制。此时,技术性正当程序由此出场,并成为了传统正当程序实现变革的时代方向。技术性正当程序主张针对关涉个体权益的自动化决策,应当从技术维度构建公平规则[],规范算法的设计、运行以及数据的收集、运用,以此从技术的维度为相关主体提供正当程序的保障,并对学位申请人从技术角度提出了专业化要求,尽可能从源头规避学位申请人利用人工智能代写学位论文。技术性正当程序对人工智能的自动化决策提出了如下两项基本要求。
其一,提升人工智能的透明度。人工智能透明度的提升首要体现为技术透明度的提升,尤其是算法透明度的提升。算法透明度的提升要求人工智能服务提供者应当以公众可理解的方式公开其代码的运作逻辑,从而倒逼人工智能服务提供者规范其算法研发工作,这亦构成了后续对相关主体进行问责的基础。同时,人工智能透明度的提升还意味着决策透明度的提升,具体到人工智能参与学位论文创作的问题上,其要求学位申请人应当对其在学位论文写作中使用人工智能的情况进行适度披露,从而令同行评阅专家或答辩委员会成员得以区分学位申请人和人工智能的学术贡献,并据此判断学位申请人的行为究竟属于人工智能的合理适用还是学术不端。
其二,强化数据筛选,以维系人工智能语料库中数据的质量与合法性。人工智能生成的内容取决于其被“投喂”的数据,故数据的质量直接决定了人工智能参与学位论文创作的质效。这即需要从源头规范数据的“喂养”环节,否则,包含个人隐私、立场偏差或内容失真、未经授权公布的数据一旦被人工智能所使用,则其生成的学位论文必然引发上文提及的多重风险。《网络安全法》第41条规定:“网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则,公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。”《数据安全法》第32条规定:“任何组织、个人收集数据,应当采取合法、正当的方式,不得窃取或者以其他非法方式获取数据。”《个人信息保护法》第7条和第8条规定了个人信息的公开、透明、保证质量的处理原则,第58条还要求健全个人信息保护合规制度体系,成立独立机构对个人信息保护情况进行监督。这为未来教育法律规范人工智能的数据收集行为,进而维系其学位论文参与活动的质量提供了有益借鉴。
2.敏捷治理:因应权利受损风险的有效范式
自2007年敏捷治理的概念被正式提出以来,多元参与、协同互动、灵活响应等逐渐发展为敏捷治理的基本特征[18]。尽管在不同的应用领域,其内涵并非完全一致,但在应用时大多都注重通过多元主体间的协作,依托多样性的手段实现对社会风险的快速感知与有效响应。在敏捷治理的要求下,法律显然应跳出仅关注事后风险处置的窠臼。同传统自然人参与学位论文创作相比,人工智能参与学位论文创作行为涉及更为多元的主体[19],且侵犯的权利种类亦十分多样,上述知识产权、个人信息权、隐私权等权益备受侵蚀就是显著例证,这都呼唤着通过敏捷治理的多元协同共治模式对此类问题作出回应。
一方面,人工智能参与学位论文创作涉及更为多元的主体,尤其是受到权利侵犯的主体亦非单一的,这要求法律必须在算法系统的整个生命周期中为上述多元主体设定不同的法律义务和法律责任,协调各类主体之间的行为,平衡各类主体之间的利益,实现人工智能参与学位论文创作的多元共治局面。对此,《管理暂行办法》第5条提出“支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作”。此外,《指导意见》亦要求建立“多元协同、多方参与的治理机制”。
另一方面,当前人工智能呈现出飞速迭代的表征,使得人工智能的相关侵权行为的技术漏洞可以在短期内获得修补。以ChatGPT为例,过去人工智能的迭代通常需要数年方能完成,但ChatGPT在其发布后仅过了3个月便升级迭代到了GPT-4。人工智能迭代速度的飞跃提升,意味着其算法漏洞自我修复的速度越来越快。由此,在算法不断自我完善与升级的加持下,人工智能参与学位论文创作的手段将愈加隐蔽与多元。此外,传统人工智能所生成的内容可以被人工智能服务提供者所掌控,人工智能服务提供者可以通过在输入端履行研发合规义务来确保生成产品的合法性。但是,当今的人工智能实现了与用户的直接交流会话,故其生成的内容还取决于用户输入了何种指令[20],这就为学位申请人实施剽窃、抄袭等学术不端提供了技术便利。人工智能的上述技术特质都提升了其应用风险的不确定性,并由此对追求稳定性的法律带来了严峻挑战。
敏捷治理为解决上述问题提供了有效路径。敏捷治理内含两项核心理念:一是重视治理主体的多样性,强调通过多元主体的平等参与和决策化解社会问题[21];二是强调治理手段的多元化和全程性,由此超越事后被动响应的传统法律治理模式,实现问题的全程性因应,从而尽可能将问题解决于萌芽状态。因此,《学位法》及相关行政法规或部门规章应搭建融合多元主体在内的敏捷治理平台,在教育行政部门的牵头下,对人工智能参与学位论文创作展开全域及时的处理。
3.技术性正当程序的法律转化:分主体课予不同法律义务
其一,法律应强制设定人工智能服务提供者以算法透明度的义务,以此倒逼人工智能服务提供者规范其算法的研发与使用行为。算法透明度提升是算法规制的核心手段[22],其要求人工智能服务提供者不仅要公开其算法,而且还要确保算法能够被公众所理解,故算法透明度义务具体内含算法公开和算法解释两项要求。
算法公开意味着人工智能服务提供者必须将其算法的源代码及运行逻辑向社会公开,接受一定范围内的监督。如《个人信息保护法》第7条要求:“处理个人信息应当遵循公开、透明原则,公开个人信息处理规则,明示处理的目的、方式和范围。”这就要求相关人工智能服务提供者处理此类信息时,必须通过算法公开的方式向公众展示其处理方法。同时,算法公开还可以为学位申请人创设是否使用该人工智能的选择空间。举例而言,若某一人工智能经过算法公开,学位申请人得以知晓其倾向于选择使用英美法系国家学者的观点,而排斥大陆法系国家学者的主张,那么,由该人工智能就某一特定法律议题自动生成文献综述时就会出现覆盖范围有限等问题,学位申请人便可根据算法公开的内容选择更有利于自身论题的工具辅助其学位论文创作。
算法解释要求人工智能服务提供者必须以公众可理解的方式公开其算法。算法涉及众多专业内容,因此,很多情况下即便其被公开,作为非专业人士的学位申请人也无法理解其运行逻辑。这就要求引入算法解释制度,其意指人工智能服务提供者必须通过普通大众可理解的术语公开其算法,必要时还需以通俗易懂的方式向使用者展开解释,给予其判断空间。在算法解释法律方面,2019年欧盟发布的《人工智能伦理准则》就明确要求算法平台必须向用户提供算法决策的相关信息并进行充分解释,确保用户知晓算法的运行逻辑。
其二,在上述基础上,法律应进一步为学位申请人规定人工智能使用情况披露义务。实践中,学位申请人使用人工智能参与学位论文创作的过程十分隐蔽,故学位申请人主动披露其人工智能的使用情况就显得尤为重要。在学位申请人主动履行这一义务后,同行评阅专家或答辩委员会成员便可据此区分学位申请人与人工智能的学术贡献,并判断学位申请人的行为是否构成学术不端。因此,人工智能使用情况披露义务,是人工智能参与学位论文创作引发学术不端的核心规制方案。人工智能使用情况披露义务主要包含以下要素:
内容方面,学位申请人需借助人工智能服务提供者算法透明度义务的履行,向专家展示其所使用的人工智能的算法逻辑;同时,学位申请人还需要具体展示人工智能的学术贡献,如其生成的文章框架、形成的文献综述、降重幅度或生成的部分论文片段等,从而令专家能够对其使用的人工智能生成产品的可信度,以及人工智能和学位申请人各自的学术贡献,作出较为精确的判断。
手段方面,学位申请人应当灵活通过各类措施向专家展示其人工智能的使用情况。这些措施包括但不限于注释、表格、文字说明、单独附件等手段,只要其有助于澄清人工智能的详细使用情况即可。
程度方面,相关论者指出,披露程度有“鱼缸透明度”和“合理透明度”之分[23],前者意指学位申请人必须将人工智能参与学位论文创作的一切信息均披露给专家,后者则是指学位申请人通过信息披露,令专家足以知晓人工智能的运行逻辑及其学术贡献即可。两相对比,“鱼缸透明度”不仅对学位申请人提出了过高的要求,且很难具备可操作性,故法律采用“合理透明度”较为妥适。
效力方面,人工智能使用情况披露义务的履行意味着学位申请人初步完成了“可信性验证程序”[24],学位论文因此而获得了初步合法性。但这当然不代表学位申请人必然不构成学术不端,相关专家还需在此基础上展开最终的学术判断。但是,倘若学位申请人没有履行这一义务,则可直接判定其行为属于学术不端。其目的是为了督促学位申请人主动公开其人工智能使用情况。
4.敏捷治理的法律转化:聚合多元主体共同建章立制
(1)发挥不同主体的指引与规范作用
首先,行政法规和部门规章可以在《学位法》的基础上制定更为细致的规则,但此类规则仍主要是针对全国性问题展开规制,故各级教育行政部门仍有必要出台更加具体微观的指导性准则,为人工智能参与学位论文创作提供更具可操作性的指导框架。同时,各级教育行政部门还应通过吸纳专家力量,成立专门对人工智能服务进行管理的委员会,负责对人工智能参与学位论文创作进行监督,并协调教育行政部门和其他主体的治理活动。
其次,人工智能行业协会应为人工智能参与学位论文创作设定行业标准。行业标准可以切实深入技术层面规范人工智能参与学位论文创作,根据新的风险及时作出内容调整,并在法律出现空白的情况下为风险消除提供社会规则的指引,从而有效弥补立法可能出现的专业性与灵活性欠缺的不足。在现代法治国家,由行业公约、社团章程所构成的社会规则历来都是社会治理所不可或缺的重要规范,社会规则与国家法律相得益彰,可以有效弥补国家法律在特定问题上的空白。
再次,人工智能服务提供者除了需要在技术维度履行上述算法透明度义务、规范数据收集并为数据添加标识义务外,还需要在人工智能运行的环节增设举报、投诉的渠道。学位申请人等相关主体在发现人工智能生成内容存有侵犯他人隐私权或著作权等问题后,可以通过上述渠道及时将问题反馈给人工智能服务提供者。
最后,学校应以积极主动的姿态为学生使用人工智能参与学位论文创作提供指引,并在论文写作进程中及时消除因人工智能的参与而可能出现的学术不端。一方面,学校应通过讲座、培训的方式向学生阐述人工智能使用伦理,并对相关可能引发学术不端的使用行为进行警示。另一方面,在学位申请人正式答辩前,应要求学位申请人在不同阶段履行相关的解释义务,如要求学位申请人就特定内容提供说明解释,避免学位申请人通过人工智能直接代写论文。
(2)统筹不同主体构建全程治理架构
第一,通过对算法和数据的技术监测,实现人工智能参与学位论文创作风险的事前预防与警示。一方面,政府与人工智能行业协会可合作推动人工智能技术的适当开源,并共同组织专家对相关人工智能服务提供者的算法设计进行检验,提升其算法的可靠性,规避算法歧视。另一方面,教育行政部门、人工智能行业协会、学校等教育主体亦应借助平台与相关人工智能服务提供者时时进行信息共享,对此类数据的真实性进行定期核验,以免数据库中低质量的、不真实的信息最终损及人工智能参与学位论文创作的质量。事实上,人工智能关于专业性、学术性极强的问题经常给出不准确的答案,故通过信息共享及数据核验的方式从源头提升该领域的数据精确性,对于保障人工智能参与学位论文创作工作的质量尤为重要。由此可以看到,在技术性正当程序规范算法透明度的基础上,敏捷治理再次为提升算法透明度设置了监督之维,避免算法参与学位论文创作进程中侵犯他人知识产权,侵犯学位申请人个人信息权、隐私权、知情权、选择权,或导致生成学位论文失真等现象。
第二,在学位论文进入同行评阅阶段前,通过多元主体协作,及时发现算法、数据漏洞或学术不端。借助人工智能服务提供者设置举报、投诉渠道的义务,其他主体在发现相关算法歧视、数据歧视时,应及时向人工智能服务提供者反馈,促使其动态修缮相关漏洞。更重要的是,借助敏捷治理平台,相关主体应在这一阶段实现学术不端的及时洞察与规制。例如,在教育行政部门和人工智能行业协会的牵头下,中国知网、万方数据库等平台可以同相关人工智能服务提供者展开合作,从而令学校得以及时发现学位申请人可能存在的学术不端行为。
当前,借助强大的自然语言处理能力,人工智能已然可以为学位申请人直接生成重复率低于合格线的完整学位论文,又或是将学位申请人创作的学位论文的极高重复率降低到合格线以内,专家学者很难判断此类论文是否为人工智能所作。故此,在教育行政部门以及人工智能行业协会的牵头下,相关人工智能服务提供者可以和中国知网、万方数据库等平台签订协议,即人工智能服务提供者将其自动生成的学位论文,以及为学位申请人修改或降重后的学位论文,传输给上述平台予以储存。由此,学校即可将学位申请人提供的学位论文通过上述平台的重复率检测服务,查明其是否为人工智能所代写,抑或是否被人工智能修改过,以及人工智能修改的具体程度。在此基础上,同行评阅专家及答辩委员会成员将判断学位申请人的行为是否构成学术不端。
不过,上述操作存在侵犯学位申请人信息权利的风险,并有可能因触动人工智能服务提供者的利益而为其所抗拒。对此,人工智能行业协会可通过行业章程的方式,要求人工智能服务提供者与学位申请人签订格式条款,即面对不同意上述操作的学位申请人,人工智能服务提供者可拒绝为其服务。显然,法律对此仅能作出鼓励式规定,而不宜强制人工智能服务者从事上述行为,这需要人工智能行业协会充分发挥协调功能,实现上述目标,敏捷治理的治理优势也因此彰显。
当然,通过专门的人工智能检测工具来直接识别学位论文是否经由人工智能所生成,是一项更为便利的措施。当前中国知网的“AIGC检测服务系统”依托知网丰富的高质量文献大数据资源,结合“AIGC大模型”,运用知识碎片化技术和多阶指纹向量检测模型,通过语言模式和语义逻辑等多维度对相关文本进行分析比对,实现了“用AI检测AI”。不过,正如上文所述,当前人工智能的迭代速度异常迅猛,人工智能强大的自我升级、自我修复能力使其“反检测”能力与日俱增,其生成的内容在逻辑和表述方面也将愈发与人类的自然语言无异,故对人工智能生成内容的检测依然需要以敏捷治理作为指导性的规制理念。
第三,实现人工智能参与学位论文创作的事后持续跟进机制。敏捷治理强调全程治理,重视事后的风险总结与规制手段的持续优化。对此,人工智能服务提供者不仅应根据此前收集的相关主体的意见动态修缮相关漏洞,而且还要及时总结经验,与人工智能行业协会及教育行政部门共享此类信息。人工智能行业协会及教育行政部门应不断完善行业标准及相关规范性法律文件,不断更新优化人工智能参与学位论文创作的技术规制措施。
五、结语
“法律如同远行者,要为明天做准备,它必须拥有成长的原则。”[25]本文界定了人工智能参与学位论文创作三种学术不端的具体情形,为法律判断学术不端提供了基本规范指引。在此基础上,为法律回应人工智能参与学位论文创作提供了前瞻性方案。当人工智能“入侵”学位论文,科技进步与学术伦理的碰撞愈发拷问着法律的底线与智慧。基本的共识应当是:技术引发的问题既需要通过技术迭代的方式予以控制,也需要借助法律规制的方式进行防范与规制。于此意义而言,本文所提出的方案正是对“技术+法律”共识的具体落实,促成相关方案的法律转化是因应人工智能参与学位论文创作风险的有效途径,也是实现技术赋能与风险规制之衡平的重要任务。
注:参考文献已省略,如需要参考请阅读原文。
文献引用格式
董储超,刘旭东.人工智能参与学位论文创作的法律规制[J/OL].湖南师范大学教育科学学报,1-8[2024-09-26].
欢迎投稿
湖南师范大学教育科学学报
微信号:hnsfdxjkxb
投稿网址:
https://fljy.cbpt.cnki.net
CSSCI来源期刊
全国中文核心期刊
复印报刊资料重要转载来源期刊
中国社会科学评价研究院A刊核心期刊
执行主编:段发明
编辑部主任:张曙光
编辑部电话:0731-88872472
本期微信公众号编辑:田雨杉