高端视野|吴沈括 华孟瑶:生成式人工智能与虚假信息防治策略研究

财富   2024-10-15 22:19   北京  



生成式人工智能与虚假信息防治策略研究

吴沈括
北京师范大学法学院博士生导师
中国互联网协会研究中心副主任
华孟瑶
北京师范大学法学院研究助理

本文刊载于国家级期刊《法治新闻传播》2024年第6期,是国家社科基金重大项目“数字经济治理体系法治化研究”的阶段性成果。



随着生成式人工智能技术的快速进步,制造并传播个人和商业上虚假信息的案例也日益增加,引发了一系列法律治理问题的关注。与传统虚假信息防治相比,利用生成式人工智能生成的虚假信息具有智能化、个性化以及虚假真实性等特点,对社会稳定和公共秩序具有重大威胁。这种虚假因其智能化特点,能够针对个体进行个性化传播,深入人心并产生广泛影响。与此同时,生成式人工智能生成虚假信息因其“虚假真实性”使得受众难以分辨其真实性,进而可能引发社会恐慌、群体冲突等严重后果,而如何更好地应对这些虚假信息,则涉及到更多法律层面的问题。

一、生成式人工智能虚假信息的产生和传播特点

如今,随着生成式人工智能技术的进一步发展,虚假信息在生产、传播和扩散等环节都发生了全新的变化。与传统虚假信息治理相比,利用生成式人工智能生成的虚假信息呈现出“定制化”生产、“精准化”传播、“智能化”扩散的特点,对社会稳定和公共秩序具有重大威胁。在近期我国公安部公布的数起打击整治网络谣言的典型案例中,便有四起涉及使用人工智能工具生成和传播虚假信息。以“广州限制外卖配送”谣言案为例,网民杨某等人使用人工智能工具批量生成不实文章引流牟利,对广州市民的社会经济生活造成了巨大的影响。

此外,随着生成对抗网络(GAN)技术的发展和“深度学习”模型的优化,生成式人工智能可以利用机器学习技术实现音频和视频的人为合成,从而产出一种“深度伪造”的虚假信息,使得虚假信息愈显真实而难以辨析,从而给个人隐私以及公共安全带来严重隐患。比如推特上广为流传的“特朗普被捕”,即是通过GAN技术形成的逼真的人脸图像。尽管有学者发现,ChatGPT等生成式人工智能能够使用从人类反馈中学习的技术,在一定程度上减少生成有害的内容,但仍不可避免由人类主观性引入的算法偏见所导致的大型语言模型输出内容的有害性攀升。此外,Karen Yeung等从算法妨害的角度出发,提出了算法对人类行为和认知的“超级助推”现象,这一现象会导致算法对用户和公众心理与行为的操纵,而且“超级助推”现象与传统的物质性侵害相比,会对用户产生不可量化的实质性影响。可见,数字时代背景下如何应对和治理此类新型虚假信息问题亟待关注。

二、生成式人工智能虚假信息治理问题与法律挑战

生成式人工智能作为近年来新兴的技术领域,其在虚假信息制造方面的现象不胜枚举。然而,现行法律对于针对这一技术的治理尚未达到理想水平,主要反映在法律责任主体的界定问题、刑法规范中对私权的保护不够突出,以及言论自由与虚假信息之间的确切界定问题。

1.法律责任主体的界定问题。法律主体是指在法律关系中享有权利或负有义务的人,通常又称为权利主体和义务主体。根据国家互联网信息办公室在《生成式人工智能服务管理办法(征求意见稿)》中所规定的,生成式人工智能所引发的法律问题的责任主体主要是产品生产者、服务提供者以及平台本身。也就是说,根据我国现行法规,生成式人工智能的法律责任主体并非人工智能本身,而是技术提供者以及平台供应商。然而,也有观点认为,在赋予生成式人工智能一定条件以后,生成式人工智能本身也可以作为一个法律责任主体参与到法律活动中去。法律主体的内涵是一个开放的概念,其在不同的历史时期和社会背景下具有不同的含义和界定。从自由人到自然人再到自然人与拟制人并存,法律主体的演变与社会变迁密不可分,也与责任承担密切相关。因此,考量生成式人工智能能否具备法律主体地位不应当仅仅局限于其是否具有自由意志。随着生成式人工智能技术的发展,可以将生成式人工智能视为特殊的法律主体。

2.刑法规范中的“私权”保护比重小。纵观刑法中有关虚假信息的治理,都要求达到“严重扰乱社会秩序”的程度。这体现出《刑法》在虚假信息规制中的公共性。换言之,只有虚假信息的传播发展到一定的程度,直到侵害了公共法益,才能成为刑法规制的对象。而个体的隐私权、名誉权在虚假信息治理中处于一个比较次要的地位。我们可以看到,网络上的个人权利保护机制呈现出相对微弱的作用。尽管现代社会法律法规已经越来越注重保护个人隐私权和名誉权,但是在网络空间中,相关法律法规的执行难度很大,许多侵权行为甚至不能够诉诸法律。与此同时,网络匿名性和虚假身份的使用也增加了保护个人权利的难度,个人的私权常常受到侵犯而不能得到合理的保护。这一点也是《刑法》中“重公权、轻私权”体现。公共权力对私人权益的保护强调整体性和集体性,而个人对私权的关注则体现个体利益的保护。因此,个人的隐私权作为个体生存和发展的基本保障,在法律保护中也应该具有重要的地位。对于因为生成式人工智能所产生的谣言严重损害个人隐私权、名誉权的,也应该给予一定的保护。

3.言论自由和虚假信息的界定问题。根据我国《宪法》的规定,中华人民共和国公民享有言论自由的权利,这一权利是极为重要的公民基本权利。然而,在处理网络虚假信息的相关行政权限设定以及虚假信息治理措施的实施标准方面,通常采用了大量的行政规章和规范性文件,这些规范的位阶和层级相对较低,与其所应承担的保障言论自由的功能不匹配。这直接影响了法律规范的权威性和实施效果,并且容易引发不同法律规范之间的冲突和矛盾。与此同时,网络虚假信息和言论自由本身的区分也存在一定难点。有学者提出可从主观不法性、客观不法性、行为需罚性等多个视角予以区分。但仍然具有一定的争议性,主要体现在“主观不法性”的验证和取证问题。同时,这一区分标准也体现出我国现有法规在虚假信息治理中对“公权”的重视和对“私权”的弱化,在现有判例中,“行为需罚性”通常只在危害国家安全、公共利益以及严重危害个人的案件中有所体现,而在对一般受害人的案件中难以得到运用。

三、生成式人工智能虚假信息治理的责任分配与防治路径

在治理生成式人工智能产生的虚假信息的过程中,涉及多方的伦理规范和道德责任,主要包括技术研发者,技术提供平台和技术使用者三方,明确这三方之间权利和义务的分配,是我们治理生成式人工智能产生的虚假信息的重要手段和方式。

(一)技术研发者的法律责任

生成式人工智能是建立在机器学习模型和深度学习模型的基础上,通过对海量数据进行训练,学习其中的规律和模式,并利用这些知识来生成与原始数据相似的新内容的一种技术。在生成新内容时,模型可以通过提供初始输入或提示的方式来引导生成过程,从而产生具有一定可控性的结果。对于技术研发者来说,需要承担一定责任。首先,技术研发者应当保证生成式人工智能技术中所运用到的算法技术的透明性。生成式人工智能技术的发明本身是人类社会科学技术发展的结果,因此,其中所运用到的技术也应当和人类社会价值观保持一致。基于生成式人工智能的技术原理,为了实现生成式人工智能和现存社会价值观的相符性,算法就需要保持其透明性,更好地防止技术开发者因其个人偏好造成所搭建数据库存在一定的偏见,从而造成整个生成式人工智能技术的算法偏见。同时,保持算法技术具有透明性能够更好的帮助技术研发者对现存算法进行纠错和更新。由于生成式人工智能一般具有可训练性,在技术使用者大量数据样本的投喂过程中,生成式人工智能技术很容易出现一定的偏颇,从而造成技术伦理的悲剧。对于这种可能性,技术开发者承担一定的监督和修正义务,通过建立可解释、透明度较高的算法系统,能够帮助技术开发者确保生成式人工智能技术符合伦理性。

其次,生成式人工智能技术开发者还应该承担一定的救济责任。生成式人工智能在生成虚假信息时通常会出现侵犯隐私权和非法获取公民个人信息等罪责,从而引发民事赔偿责任问题。现有实践中,生成式人工智能技术本身还无法成为民事责任主体,也就无法承担民事赔偿责任。这就要求技术开发者通过购买保险或设立赔偿保证金等方式来保证生成式人工智能在出现严重事故时承担起一定的赔偿责任,从而承担起伦理责任,保证生成式人工智能技术和现有社会价值观的一致性。

(二)技术提供平台的法律责任

生成式人工智能技术提供平台在一定程度上充当了大型数据库的角色,大量的技术使用者给技术平台提供的大量数据,帮助生成式人工智能技术本身完成了自我升级和迭代。因此,在使生成式人工智能技术符合伦理规范上,技术平台承担了较大的伦理责任。首先,在搭建生成式人工智能自我训练算法时,就应当植入虚假信息识别机制,尽早发现因为技术使用者恶意使用而造成的法律风险。技术提供平台可以通过建立完善的技术审核机制,对使用者提供的数据和内容进行审查,以防止恶意使用和散播虚假信息,确保生成式人工智能技术不被滥用,避免对社会、个人或组织造成伤害。

同时,技术平台应当建立严格的数据隐私保护机制,确保用户数据得到妥善处理和保护。其中包括明确告知用户数据收集的目的,并获得用户的明确同意;采取合理的安全措施,防止数据泄露和滥用;并限制数据的访问权限,确保只有经过授权的人员可以接触敏感信息。此外,技术平台还应与监管机构和行业组织合作,制定共同的伦理准则和行为规范,建立起一个相互监督、相互约束的体系,推动生成式人工智能技术的健康发展。

(三)使用者的伦理意识与行为规范

根据我国生成式人工智能领域最新的文件《生成式人工智能服务管理暂行办法》第十四条规定,“提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。”此条规定本质上是对生成式人工智能技术的使用者提出了一定的责任要求。

由于生成式人工智能技术本身具有自我优化、自我学习的功能,该技术在面向技术使用者时,使用者会根据自我需求对生成式人工智能进行训练,也就增加生成式人工智被恶意使用的可能性,而在这种情况下,技术开发者和技术提供平台的责任显然是低于技术使用者的。因此,技术使用者在使用该技术时,应当尊重隐私和数据保护,遵循人类基本价值观,维护生成式人工智能的公平性和正当性,促进生成式人工智能技术的正向发展,同时为恶意适用生成式人工智能技术生成虚假信息以及其他违法行为承担主要刑事责任和民事赔偿责任。


— END — 
图文编辑:北京师范大学 吴丹

数字治理全球洞察
数字治理、网络治理和数据治理的监管司法与风控合规的全球性Hub@北京师范大学吴沈括团队。
 最新文章