涉生成式人工智能数据犯罪刑法规制新路径
作者:刘宪权,华东政法大学功勋教授,“经天学者”讲席教授,博士生导师,法学博士。
内容提要:我国数据犯罪刑法规制的侧重点在于数据控制行为的规制以及数据分类分级的保护。生成式人工智能的应用导致数据控制行为合法性增强、数据利用行为风险攀升以及数据共享需求提升。生成式人工智能的应用可能会引发现行数据分类分级标准的功能性失灵并造成刑法在法益保护上的漏洞。应当确立“数据利用”行为规制观与“全类别+分类分级”数据治理观。现行数据犯罪刑法规制模式属于权利保护模式,应当采用“权利保护+集体法益保护”的复合模式。复合模式保护的集体法益应当是数据管理秩序而非数据安全。应当修改拒不履行信息网络安全管理义务罪的构成要件以应对生成式人工智能“自发”侵害数据法益的情形。应当增设非法分析数据罪、操纵数据罪以应对行为人利用生成式人工智能侵害数据法益的情形。
关键词:数字经济;生成式人工智能;数据犯罪;非法分析数据罪;操纵数据罪
一、问题的提出
时下,以数据为基础的数字化技术已成为数字经济时代下政治、经济和社会高速发展的重要技术工具。与此同时,数据也当然成为重要的战略性资源。为保障数字经济产业中数据的保密性、可用性以及完整性不受侵害,立法机关逐步出台《网络安全法》《数据安全法》《个人信息保护法》等专门性法律强化对数据的前置性保护,为数据安全体系建设提供了法律保障与制度支撑。在刑事领域,立法机关数次出台刑法修正案对我国刑法中数据犯罪罪名体系加以完善。在现阶段,我国数据犯罪罪名体系所涉罪名既包括传统数据应用场景下的计算机类数据犯罪罪名(破坏计算机信息系统罪、非法获取计算机信息系统数据罪等),也包括以数据所承载信息内容为划分依据的信息类数据犯罪罪名(侵犯公民个人信息罪、侵犯商业秘密罪、非法获取国家秘密罪、非法获取军事秘密罪等)。
自OpenAI于2022年发布ChatGPT以来,以ChatGPT为代表的生成式人工智能迅速渗透进社会生活的方方面面,并由世界各国不断推陈出新。可以说,生成式人工智能在数字经济中的应用场景、应用方式已呈现激增态势。从技术层面来看,生成式人工智能得以迅速发展的根本原因在于,在“Transformer架构”以及“预训练+微调技术”等大模型技术的加持下,其不仅具有了深度学习规模化数据的能力,更具备逻辑推理、自我纠错、自我创造等以往人工智能均不具备的新特点、新能力。毋庸置疑,生成式人工智能已革新了以往人工智能获取、利用数据的方式。但应当引起我们注意的是,在生成式人工智能蓬勃发展的背后,伴随的是纷至沓来的新型数据安全风险以及数据保护需求的巨变。面对这一情况,我们不免为之感到担忧的是:依托现行数据犯罪罪名体系开展的数据犯罪刑法规制未必能够收获预期效果。中共中央、国务院于2022年出台的《关于构建数据基础制度更好发挥数据要素作用的意见》(以下简称“《数据二十条》”)明确提出,要充分认识和把握数字经济发展规律,并将完善数据治理体系,保障数字经济产业安全发展作为工作原则。这就要求数据犯罪刑法规制必须随着数字经济产业的发展而变化。对此,笔者拟围绕生成式人工智能的技术特点,对数字经济时代与生成式人工智能应用场景下的数据保护需求加以分析,探讨涉生成式人工智能数据犯罪刑法规制的基本理念与基本模式,为刑法恰当参与数据治理提供有益方法。
二、涉生成式人工智能数据犯罪刑法规制的基本理念
(一)从“数据控制”到“数据利用”行为规制观的转化
理论上,以数据处置方式作为区分标准,我们可将数字经济产业中数据处置过程细分为上游行为与下游行为。前者包括了数据创造、获取、修改、流通等数据控制等行为;后者则包括数据使用、储存等切实发挥数据功能的数据利用行为。应当看到的是,现行刑法明显侧重于规制数据处置上游行为,主要体现在立法机关就非法获取、编造、传播、破坏数据等发生在数据处置上游的行为方式专门设置罪名加以规制。例如,《刑法》第285条、第286条规定有非法获取计算机信息系统数据罪、破坏计算机信息系统罪,专门规制针对计算机信息系统数据的非法获取、破坏行为。再如,《刑法》第181条、第291条之一分别规定有编造并传播证券、期货交易虚假信息罪、编造、故意传播虚假恐怖信息罪、编造、故意传播虚假信息罪,司法机关可依据上述条文追究编造、传播承载特定内容数据的行为人的刑事责任。比较而言,立法机关在对数据处置下游行为中非法利用数据行为的规制上则采取了截然不同的思路。立法机关并未针对非法利用数据的行为方式设置专门罪名,而是将非法利用数据的行为方式与其他行为方式并列规定在罪状之中。例如,在数字经济时代下,数据在很大程度上会成为商业秘密的数字化载体,《刑法》第219条侵犯商业秘密罪所规定的非法获取、非法披露以及非法利用商业秘密三类行为方式均可能涉及数据犯罪。由此,我们不难看出,立法机关并未就非法利用商业秘密这一行为方式专门设置罪名,而是将非法利用商业秘密与其他行为方式并列规定在侵犯商业秘密罪的罪状之中。再如,《刑法》第142条之一妨害药品管理罪也仅将“药品申请注册中提供虚假数据”这一非法利用数据行为作为妨害药品管理行为中的一种行为方式加以规定。
就此而言,我们可以看出,无论是从刑法所规定的行为方式数量还是行为方式所涉专门罪名的数量上看,立法机关均更重视非法控制数据行为的规制,体现出明显的“数据控制”行为规制观。
所谓“数据控制”行为规制观,是指在针对数据犯罪的刑法规制中,刑法侧重规制非法控制数据行为,重点保护数据主体支配、控制数据权利的数据犯罪刑法规制理念。“在规制重点上,通过抑制非法获取或者泄漏数据等削弱数据主体对数据排他性控制程度的行为,强化数据主体对数据的控制。”在“数据控制”行为规制观之下,数据犯罪刑法规制主要以维护数据主体对数据的有效控制为目的。应当看到,数据主体对数据的有效控制主要是以数据的保密性、完整性以及可用性不受侵害为前提。因此,在“数据控制”行为规制观的指引之下,非法获取数据、非法传播数据等侵犯数据保密性的行为,以及通过篡改、破坏数据进而侵害数据完整性、可用性的行为必然成为现行刑法的规制重点。从“数据控制”行为规制观的功能作用上看,将刑法规制数据犯罪的侧重点落脚于非法控制数据行为,在某种程度上的确有利于将数据处置风险遏制在数据处置的上游阶段,从而降低数据因脱离数据主体控制而被进一步非法利用的可能性。尽管如此,我们不应当忽视的是,“数据控制”行为规制观虽然能够起到及时保护法益的作用,但是,由于其脱胎于特定时期,难免具有一定的历史局限性。正如有些学者指出的,“当前《刑法》所规定的数据犯罪主要源于前数字经济时代,所保护的数据类型及对侵害行为的规制皆无法适应数字经济时代的发展需要……”同时,我们也应当看到,现行数据犯罪罪名体系仍然以《刑法修正案(七)》所确立的计算机类数据犯罪罪名为核心,且后来历次刑法修正并未改变这一数据犯罪罪名体系格局。但是,笔者认为,这一罪名体系格局似乎并不能完全适应数字经济时代的发展需要。特别是如前文所述,伴随着生成式人工智能的横空出世,数字经济产业已迎来重大变革,生成式人工智能对数据的处理与应用相较于以往的数字化产品存在天壤之别。在此情况下,生成式人工智能的数据应用需求与数据犯罪刑法规制理念之间的内在张力正逐步体现出来。
面对生成式人工智能的高速发展,依笔者之见,在涉生成式人工智能数据犯罪刑法规制的基本观念上,我们原先所秉持的“数据控制”行为规制观似乎应该向“数据利用”行为规制观转变,也即数据犯罪刑法规制的重点应当由侧重规制非法控制数据行为向侧重规制非法利用数据行为转移。主要理由有三:
首先,“数据控制”行为合法性增强。一方面,生成式人工智能所获数据基本为已公开数据。如前所述,生成式人工智能区别于以往人工智能的重要原因就在于生成式人工智能以语言大模型作为技术基础,语言大模型能够不断通过爬虫技术规模化收集网络空间中已公开的数据信息,并且还能不断收集“人机互动”过程中所产生的数据信息,用以丰富语言大模型数据库。在此基础上,生成式人工智能得以不断学习数据之间的关联性并实时掌握人类世界的价值偏好。“模型训练的背后离不开大数据的支持,OpenAI主要使用的公共爬虫数据集拥有超万亿单词的人类语言数据。”由此分析,我们不难看出,爬虫技术获取的数据均为网络公开数据,也即生成式人工智能获取数据的过程本身并不具有非法性。另一方面,生成式人工智能对数据的处理亦不属于篡改、删除等破坏数据行为。从生成式人工智能处置数据的方式来看,除了经由上述特定渠道获取数据之外,生成式人工智能还会对自我学习、自我纠偏过程中特定算法自动衍生的数据进行处理。换言之,生成式人工智能自我学习、自我纠偏的过程本质上是基于原始数据的逻辑推理与自我创作过程,是其独有的数据处置方式,并不涉及针对数据的篡改与删除。由于生成式人工智能获取数据、处理数据的方式均不会对数据的保密性、可用性以及完整性造成破坏,因此,笔者认为,在生成式人工智能的应用场合,“数据控制”行为的合法性似乎将得到进一步彰显。在此状态下,我们如果还将数据犯罪刑法规制的目光聚集于非法控制数据行为,既没有可能也没有必要。
其次,“数据利用”行为危害性攀升。从数据犯罪的行为链条来看,非法获取、传播等非法控制数据行为本质上属于手段行为,而非法利用数据行为则属于目的行为。“非法获取数据等行为并非数据犯罪的最终目的,其只是数据犯罪产业链的起始,非法处理和利用数据才是数据犯罪产业链的落脚点和根本目的所在。”在实践中,非法利用数据行为所造成的法益侵害一般更具针对性,相较于非法控制数据行为体现出更为严重的社会危害性。但令人遗憾的是,时下社会危害性相对较轻的非法控制数据行为被广泛规定于刑法条文当中,而可能带来的风险更大(即社会危害性相对较重)的非法利用数据行为却没有受到刑法的广泛或针对性的规制。特别是在生成式人工智能的加持之下,非法利用数据行为所导致的法益侵害风险已经迅速膨胀,刑法作为保障法应当更具预防法益侵害风险的前瞻性目光而不应对此熟视无睹。具体而言,生成式人工智能所依托的语言大模型数据库中的数据处于不断更新、完善的状态,时下主流生成式人工智能产品已坐拥数十亿计的规模化数据。这无疑促进了“数据孤岛”的形成,并赋予了掌握生成式人工智能技术的科技巨头无形的数据支配地位,上述科技巨头很可能利用数据支配地位实施各类非法利用数据行为。例如,科技巨头完全可能利用数据支配地位实施流量造假、操纵检索结果等操纵数据行为。同时,由于生成式人工智能具备自我学习、自我创作等“自主性”能力,能够生成逻辑性更强且更契合人类价值观的生成内容。利用生成式人工智能所实施的流量造假、操纵检索结果等操纵数据行为,相较于以往的虚假宣传、网络诈骗等行为而言更具诱骗性。可见,生成式人工智能在数字经济产业中的应用将导致“数据利用”行为的法益侵害风险急剧攀升,现行刑法在规制非法利用数据行为上存在空缺,致使针对数据的刑法保护面临较大“危机”。
最后,“数据共享”需求提升。《数据二十条》明确提出“要充分实现数据要素价值、促进全体人民共享数字经济发展红利……”。就此而言,在数字经济时代,数据共享理应是实现数字经济蓬勃发展、充分发挥数据要素价值的重要途径。且“数据共享是一种重要的数据利用方式,也是数据流通和数据产业发展的重要基础。”应该看到,数据共享在数字经济发展中的价值主要体现在两方面:一方面,数据共享有利于维护数字经济产业的良好发展秩序。如前文所述,数据的规模化与集群化易形成“数据孤岛”并赋予科技巨头数据支配地位。“当其他中小企业难以获取数据时,这些超大型企业总是可以利用用户协议和生态系统而获得海量数据。”在此情况之下,数据的流通与利用均会受到较大阻碍,数据共享则有利于打破这一不均衡态势。另一方面,数据共享有助于激发数字经济产业活力。数据提供方与需求方的高效互动是数字经济产业不断创造社会价值的前提,而“数据共享方和数据需求方的连接点在于:数据共享方‘提供’数据,数据需求方‘获取’数据,这也是数据共享的过程。”应当看到,良好的数据共享有助于促进供求关系的高效互动,可以最大程度激发数字经济产业活力。生成式人工智能在各个领域的迅速渗透,更是提升了数据获取、处理与使用的效率,“数据孤岛”现象也越发显著,数据共享需求也将随之提升。笔者认为,秉持“数据控制”行为规制观很大程度上会扩张针对非法获取数据行为的规制。在“数据控制”行为规制观的策动下,刑法必然会进一步扩大针对非法获取数据行为的规制范围,从而将更多领域中的非法获取数据行为作为犯罪处理,这无疑对数据共享的推进造成较大阻碍。
(二)从“分类分级”向“全类别+分类分级”数据治理观的转变
当下,以数据分类分级为基础的数据治理观念已有相对明确的规范基础。《数据安全法》第21条明确提出,需将数据分类分级作为数据治理的基本方式,并要求对核心数据、重要数据进行特殊保护。《数据二十条》再次申明“加强数据分类分级管理”是数据治理工作原则的内容之一。根据这些规定,我们完全有理由认为,“分类分级”数据治理观已然成为数据治理广泛遵循的原则性理念。《数据安全法》明确强调需对核心数据、重要数据予以特殊保护。基于此,理论上大致可将数据区分为核心数据、重要数据以及普通数据三种数据类型。然而,我们必须注意的是,时下《数据安全法》第21条仅明确规定了核心数据的概念与特征,即“关系国家安全、国民经济命脉、重要民生、重大公共利益等数据属于国家核心数据……”而对于重要数据与普通数据的基本内容并无相应规范表述。虽然《数据安全法》允许有关部门通过制定目录的方式来确定重要数据的内容,但由于各领域有关部门确定重要数据所考虑的因素各不相同,实践中仍然缺乏统一的“自上而下”的重要数据识别和数据分类分级标准。进言之,由于《数据安全法》并未明确规定数据分类分级制度下所有数据类型的基本内容,我们无法明确数据分类分级的具体标准。也即对何为重要数据?何为普通数据?核心数据、重要数据以及普通数据三者之间的区别为何?等等一系列问题的答案均不得而知。这显然是导致事实上数据分类分级治理存在一定困难的实际原因。
依笔者之见,在生成式人工智能不断迭代发展的当下,数据规模的进一步扩张以及数据应用频次的不断升高等现象均对数据治理的有效性提出了更高要求。而《数据安全法》中有关数据分类分级规定的指引性不强和实践性偏弱的现状,不仅会导致行政领域数据治理的无所适从,还会导致刑法在规制数据犯罪行为时缺乏有效前置法的指引,从而导致在司法实践中产生一系列的困惑。应当看到,依托现有前置法构建的“分类分级”数据治理观在生成式人工智能的应用场景下可能显现以下问题:
首先,数据分类分级标准的功能性失灵。如前文所述,实践中确定重要数据的主要方式是通过特定领域有关部门制定重要数据目录,如《工业数据分类分级指南(试行)》《证券期货业数据分类分级指引》等。但是,生成式人工智能所利用数据的泛化,导致相关数据的归类存在现实困难。客观上根据有关部门制定的数据目录判断相关数据是否属于重要数据的相关工作,似乎很难开展。具体而言,在生成式人工智能出现以前,普通人工智能所利用的数据涉及的领域往往是特定的,负责监督管理的有关部门也较为明确。例如,券商公司开发的“智能投顾”所收集的数据主要是证券市场中的交易数据以及相关产品数据信息。“智能投顾”所利用的数据是否属于重要数据则可以依据证券监督管理部门制定的重要数据目录进行确定。然而,虽然生成式人工智能本质上仍属于人工智能的迭代产品,但其应对更为复杂的使用场景的能力却远超一般人工智能,主要表现为生成式人工智能的应用并不局限于某一特定专业领域。特别是“随着Sora等生成式人工智能技术上的日益升级与突破,人工智能时代发展进入了新一轮的跃升期,逐步从专用人工智能迈向通用人工智能(Artificial General Intelligence,AGI)。”在现阶段,生成式人工智能完全可以根据使用者的需求随时用以解决各个领域发生的问题。生成式人工智能所具有的通用性,首先导致的结果就是其所涉及的行政管理部门的泛化,重要数据目录的制定标准更是无从确定。这在某种程度上使得通过有关部门确定重要数据类别的数据分类分级方式面临功能性失灵的窘境。
其次,现行数据分类分级标准会造成法益保护漏洞。应该指出的是,数据分类分级标准的不明确,很可能导致实践中司法机关在对特定数据应否保护的问题上持暧昧态度,进而影响数据治理的及时性、妥当性,客观上造成刑法法益保护的不足等漏洞。主要体现在以下两方面:一方面,对普通数据刑法保护不到位。相较于普通数据,重要数据的刑法保护更容易引起我们的关注。因为“对重要数据的保护实乃数据安全制度中承上启下的关键一环,重要数据保护得好,则数据安全就有了根本保证,其意义不可谓不重大。”故而有学者着重对重要数据的识别与保护进行了研究,但是较少涉及普通数据的内容及保护方式。例如,有学者在论及数据分类分级保护的具体方式时,将重要数据细分为敏感数据、一般重要数据、关键重要数据三类,并确立了以重要数据管控为核心的数据分类分级保护框架。但相关研究几乎不涉及普通数据的内容及保护方式。应当看到,前置法与学界对普通数据保护关注度的缺失,将在很大程度上导致对普通数据刑法保护的漠视。但是,在生成式人工智能的应用中,非法利用数据行为并不仅以重要数据为对象,科技巨头通过获取规模化普通数据所形成的数据支配地位同样令人生畏。刑法及其前置法忽视普通数据保护的做法必将影响普通数据保护的及时性与有效性,这无疑是我们需要重视与反思的。另一方面,部分重要数据同样可能被遗漏保护。应当看到,在现行数据分类分级保护框架下,即便是针对重要数据的分类分级保护同样可能存在遗漏现象。例如,相较于传统意义上承载具体内容的数据而言,日常生活乃至法律规定上通常不会将虚拟财产或计算机语言等称为“数据”。因此,在数据分类分级的讨论中,极易遗漏上述“非典型数据”,而此类数据可能承载财产、知识产权等具体法益,与普通数据明显不同。
综上所述,由于前置法规定的不完善,“分类分级”数据治理观的实践效果并不十分显著。忽略规范基础而仅强调数据的分类分级治理,反而致使数据治理难以收获预期效果。笔者认为,时下正处于数据分类分级尚不完善的阶段,因而数据治理应当首先强调针对数据的全类别治理,亦即不论数据重要性程度的高低,所有数据均应当被纳入刑法及其前置法的保护范围。在此基础之上,再进一步强调数据分类分级治理。如果我们从一开始就先突出数据分类分级治理,就很难避免因数据分类分级的不完善而出现反噬数据治理的周密性的情况。笔者认为,生成式人工智能改变了数据应用与流通的基本格局,普通数据的规模化与集群化使我们必须重视普通数据的保护。因此,对侵害数据法益的行为,无论是行政规制还是刑法规制,首先强调的都应当是数据的全类别治理。
笔者强调侧重数据全类别治理,并不意味着完全舍弃数据分类分级治理。事实上,数据分类分级治理的确能够实现数据治理的差别化,对节约数据治理成本并优化数据治理结构肯定有所裨益。需要指出的是,笔者所主张的数据治理观本质上是“全类别+分类分级”数据治理观,亦即侧重于数据全类别治理,但在具体治理措施上尽可能实现数据分类分级治理,实现数据治理的周密化、合理化与差别化。比较而言,“分类分级”数据治理观侧重于数据分类分级治理,在侧重点上与“全类别+分类分级”数据治理观存在明显不同。目前,“全类别+分类分级”数据治理观已在侵犯公民个人信息罪的相关司法解释中有所体现。依据2017年“两高”颁行的《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》(以下简称“《侵犯公民个人信息解释》”)第5条规定,所有类型的公民个人信息均属于侵犯公民个人信息罪条文的保护范围,公民个人信息是否纳入刑法的保护范围并不因信息的敏感性、重要性程度的不同而有所区别。可见,司法解释明确各类别的公民个人信息事实上均被纳入刑法的保护范围。在此基础之上,《侵犯公民个人信息解释》根据公民个人信息的敏感性、重要性程度进一步对“情节严重”的判断标准进行了区分规定,以此实现分类分级治理。例如,非法获取、出售或者提供行踪轨迹信息、通信内容等仅需达到50条以上就符合“情节严重”判断标准,而非法获取、出售或者提供住宿信息、通信信息等则需要达到500条以上才符合“情节严重”要求。由此可见,《侵犯公民个人信息解释》针对不同类别的个人信息设置了截然不同的“情节严重”量化标准,以有利于在实践中体现我国刑法中的罪刑均衡原则。刑法作为制裁力度最为严厉的社会治理手段,不仅需要充分发挥法益保护功能,还应当控制其介入社会治理的程度。而“全类别+分类分级”数据治理观的确立,不仅强调了刑法法益保护的周延性,还注重数据的差别化处遇。综上,笔者认为,上述有关“全类别+分类分级”数据治理观的功能定位,似乎有利于立法机关持续完善并量化针对不同数据作出明确的保护标准,同时也完全符合生成式人工智能应用背景下的数据治理需求。
三、涉生成式人工智能数据犯罪刑法规制的基本模式
(一)现行刑法对数据犯罪规制模式的辨析
应该看到,时下我国刑法有关数据犯罪罪名被分散规定在分则的各个章节。从数据犯罪罪名条文所保护的法益分析,现行刑法规制的数据犯罪行为均是对特定领域数据主体权利的侵害。例如,非法获取计算机信息系统数据行为、破坏计算机信息系统行为侵害的是计算机领域数据主体的权利,既包括国家机关、公司、企业等数据主体的具体权利,也包括公民的权利;又如,非法获取、披露商业秘密行为所侵害的是知识产权领域数据主体的权利。从数据犯罪行为所侵害法益的具体内容分析,上述数据犯罪行为除了侵害数据主体的数据控制权,还可能由于行为所涉领域的不同侵害数据主体的其他衍生权利。例如,计算机领域的数据犯罪除了侵犯数据主体的计算机数据控制权之外,还可能对数据主体财产权造成侵害。依据2011年“两高”颁行的《关于办理危害计算机信息系统安全刑事案件应用法律若干问题的解释》第1条规定,非法获取计算机信息系统数据行为“情节严重”的认定标准既包括了非法获取信息数据的数量,也包括了非法获取信息数据所造成经济损失的具体数额。分析上述司法解释规定可知,非法获取计算机信息系统数据行为完全可能既侵害数据控制权,同时又侵害数据主体财产两类法益;而非法获取、披露商业秘密行为除侵害数据主体的商业秘密数据控制权之外,还可能同时侵犯数据主体的知识产权、财产权等衍生权利。由此可见,刑法分则所规定的数据犯罪罪名可能侵犯的权利具有复合性,且相关权利均归属于特定领域的数据主体。
我国数据犯罪刑法规制模式属于典型的权利保护模式。所谓权利保护模式,是通过判断数据权利的归属、获取或修改数据行为的合法性认定数据犯罪,根本目的在于保护数据主体的利益。由此,我们不难发现,权利保护模式的根本依据在于数据本身具有权利属性,“由于数据具有客体属性、确定性、独立性,存在于人体之外,因此数据权利属于民事权利。”数据的权利属性赋予了数据主体合法的数据支配地位,在实践中体现为对数据的排他性支配。数据的排他性支配主要通过主张数据的控制权,并禁止其他主体实施非法获取、传播、篡改数据等破坏数据保密性、完整性与可用性的行为。当然,在权利保护模式之下,数据主体仅能够基于对数据的排他性支配,即在其可支配范围内禁止他人实施破坏数据保密性、完整性与可用性的行为。如果行为人从公开渠道或是经数据主体同意合法获取数据,且未实施篡改、破坏数据等行为,由于行为人并未破坏数据保密性、可用性以及完整性,上述数据则不属于数据主体的可支配范围。在此情况下,即便行为人后续利用数据行为未获得数据主体的知情同意,依据现行刑法的规定,我们仍然不能以相关数据犯罪罪名追究行为人的刑事责任。
笔者在较早前的论文中认为,数据犯罪刑法规制采用权利保护模式具有一定理论合理性。理由是:首先,权利保护模式符合法秩序统一性原理。在对数据犯罪这类典型法定犯进行规制时,适用权利保护模式无疑符合法秩序统一性原理。其次,权利保护模式有利于法益保护的前置化。但是,在涉生成式人工智能数据犯罪风险逐步升高的时代背景之下,权利保护模式已呈现力有不逮的态势。主要原因是生成式人工智能所涉及的数据极为广泛,几乎覆盖社会生活的方方面面,即便是以往承载敏感度较低信息的普通数据,在生成式人工智能的创作、加工之下也可能成为极易引发安全风险的敏感数据。权利保护模式显然无法穷尽时下所有需要保护的数据权利,并且无法及时遏制安全风险的生成。另外,权利保护模式可能导致我们忽视对数据利用行为的规制。在生成式人工智能的应用场景中,数据利用行为的法益侵害性肯定会得到大幅提升,而在权利保护模式下,刑法对数据利用行为规制的空缺,无疑会在很大程度上放任并加剧数据利用行为的法益侵害风险。
(二)刑法对数据犯罪规制复合模式的提倡
笔者认为,数据犯罪的刑法规制应当采用“权利保护+集体法益保护”的复合模式,理由如下:
首先,权利保护模式已不能适应生成式人工智能时代数据犯罪刑法规制的需求。如前所述,现阶段数据犯罪刑法规制的首要任务不再是以维护数据主体排他性支配权为核心,而是要保证数字经济产业中的数据能够受到妥善的处理与利用。这就要求数据犯罪刑法规制必须关注数据处置链条中的各项行为是否具有规范性。在无处不在的风险面前,秩序和安全的价值必然需要被强调,这使得传统的以个人法益保护为核心的刑法体系受到了挑战,更多的以风险预防、应对为目的的集体法益保护就成为刑法所追求的目标。对此,刑法有必要强化对数据领域集体法益的保护,实现数据犯罪刑法规制“由点及面”的转化,覆盖数据处置全过程。
其次,现行刑法有关数据犯罪罪名配置尚无法兼顾具体权利保护与集体法益保护的内容。笔者认为,通过集体法益保护模式强化对数据处置全过程的规制,并不意味着要完全排除权利保护模式。因为前者主要注重保护集体法益,后者则侧重于维护数据主体的具体权利,二者并非排斥关系。相反,提倡“权利保护+集体法益保护”的复合模式既能够通过保护数据主体对数据的排他性支配权来保护数据的“静态安全”,避免数据被其他主体非法控制,又能够通过保护集体法益的方式进一步规制非法利用数据的行为,规范各数据主体对共享数据的利用、处理方式,维护数据的“动态安全”。就此而言,笔者主张,应当在现行权利保护模式下的罪名配置基础之上,通过增设数据犯罪罪名的方式强调对集体法益的保护。相关内容笔者将在下文中作详细论述,在此暂不赘述。
对此,我们有必要进一步讨论的是,复合模式所保护的集体法益应当包括何种内容?时下,理论界论及的数据犯罪刑法规制所保护的集体法益主要涉及数据安全法益与数据管理秩序法益。
其一,数据安全。依据《数据安全法》第3条规定,数据安全,是指通过采取必要措施,确保数据处于有效保护和合法利用的状态,以及具备保障持续安全状态的能力。有学者据此提出,数据安全法益本质上是维持数据的持续安全状态的能力,包括了数据的动态安全以及静态安全。笔者认为,在数据犯罪刑法规制中引入数据安全法益并非理性之举。原因在于,数据安全法益的性质与内容需要经过数据安全风险的识别。在此意义之上,数据安全是否受到侵害必然要对数据风险的有无加以判断。因此,数据安全状态直接与数据风险相关联,任何可能产生数据安全风险的行为都可能被界定为“不安全行为”,进而被认定具有法益侵害性。需要指出的是,生成式人工智能的迭代发展导致数据不断向科技巨头聚集,就可能会发生数据运用的高度垄断;生成式人工智能的广泛运用更是使得数据的范围和频率大幅提升,就可能导致数据滥用现象的高频发生。笔者认为,尽管上述这些情况可能会对数据安全造成明显威胁,但是,如果刑法强调对数据安全的保护,则诸如生成式人工智能等数字化迭代技术在社会生活中的发展与适用则可能受到极大限制,这一结果显然是我们都不愿意看到的。人工智能领域的刑事立法应当注重统筹安全与发展的关系,在保障安全的前提下最大程度实现人工智能的飞速发展。可见,“‘整齐划一’的数据安全保护模式难以适应数据的异质性特征和复杂多变的数字经济发展形势。”在笔者看来,即便数据安全法益的提出能够在一定程度上指导刑法防范数据处置全流程中的潜在风险,但我们必须清醒地认识到,数据安全法益在内容上所具有的宽泛性极有可能导致刑法对于数据风险过度敏感,从而必然会遏制生成式人工智能等新兴技术的发展与应用。对此,笔者认为,我们在涉生成式人工智能数据犯罪的刑法规制中不应(或不应过度强调)将数据安全作为保护的法益。
其二,数据管理秩序。所谓数据管理秩序,是指对数据处理的重要环节进行严格把控所形成一种稳定的社会秩序。具体可细分为数据流通管理秩序、数据分析管理秩序、数据储存秩序和数据使用秩序等。依据《数据二十条》规定,数据管理需要兼顾数据采集、加工、流通以及应用等各环节,同时把握数字经济产业的发展规律,促进形成与数字生产力相适应的新型生产关系。从前置法对数据管理的要求上看,数据管理秩序应体现两方面特征:首先,数据管理秩序注重管理性而非惩治性。数字经济产业中生成式人工智能等新兴技术的发展必然伴生风险,要推动数字经济产业的发展,必须鼓励符合数字经济发展规律的新型数据处置行为。从这一意义上看,生成式人工智能所蕴含的数据风险应当属于“被容许的风险”。在强调数据管理秩序管理性要素的前提下,即便数据处置行为会带来一定程度的数据风险,也仍然不能将其纳入刑法的惩治范围。由此可见,数据管理秩序法益的提出并不会过度遏制生成式人工智能等新兴技术的发展。其次,数据管理秩序注重数据处置全过程的规范管理。数据管理秩序容许一定数据风险存在,但是,并不意味着对此类风险完全听之任之。相反,由于数据管理秩序覆盖数据处置的全过程,我们需要对数据处置全过程的规范性进行管理,以保障数字经济产业的健康发展。对于破坏市场公平竞争、直接侵犯数据主体利益等不利于数字经济产业健康发展的行为(诸如非法分析数据、操纵数据等)则应当予以刑法规制。
笔者认为,数据犯罪刑法规制所保护的集体法益理应仅指数据管理秩序而不包括数据安全。理由有二:一方面,如前文所述,数据管理秩序的具体内容由《数据二十条》《数据安全法》等前置法确定,以前置法作为渊源的法益内容能够在一定程度上限缩集体法益的范围,并可以最大程度防止法益内容过于宽泛的流弊。另一方面,数据管理秩序对数据风险具有一定的包容性。具体而言,在数据管理秩序法益之下,判断数据管理秩序是否遭受侵害并不以风险是否存在作为唯一的判断要素,因此,生成式人工智能等新兴技术的发展不会因刑法过度介入而受到阻碍。当然,也有学者对数据管理秩序提出质疑,持反对论者主张,数字经济产业由多元主体参与,对数字经济产业的管理则应当去中心化,国家只是加以引导,并不需要普遍掌控,当然也谈不上管理秩序。笔者对此观点不敢苟同。应当看到,在数字经济产业发展初期,为避免过度遏制数据主体的创新发展,刑法及其前置法的确不应当过度介入数据治理。但是,时下ChatGPT、星火大模型等生成式人工智能相继推出,致使部分科技巨头逐步获取了数据支配地位,且这一趋势正处在愈演愈烈的阶段。“如今,数据处理者、算法掌控者已不再是普通的私主体,而是在拥有巨大技术优势与数据资源势能的基础上,形成了相对于个人而言的、能够辅助甚至替代公权力的数据权力、算法权力或平台权力。”面对上述情况,数据支配地位的局部显现正在打破数字经济产业的公平发展态势,也致使数据风险向“数据孤岛”进一步聚集。对此,我们不得不提倡强化保护数据管理秩序,使刑法及其前置法能够通过对法益的保护具体介入数据处置的全过程,并对危害数字经济产业健康发展的数据处置行为加以规范。
综上所述,笔者主张将“权利保护+集体法益保护”复合模式作为数据犯罪刑法规制的模式,因为“权利保护+集体法益保护”复合模式的核心在于保护特定数据主体的具体权利以及数据管理秩序。据此,笔者进一步认为,现行刑法中数据犯罪罪名的具体配置也应当以复合模式为依据进行完善,以此实现数据犯罪刑法规制的现代化。
四、涉生成式人工智能数据犯罪刑法规制的完善
应该看到,生成式人工智能除了可能成为行为人实施数据犯罪的工具之外,还因其具有逻辑推理、自我学习以及自我纠偏等能力,完全可能“自发”实施侵害数据法益的行为。就此而言,涉生成式人工智能数据犯罪的认定相较于传统数据犯罪而言似乎更为复杂。我们有必要在区分涉生成式人工智能数据犯罪具体情形的基础之上,对现行刑法条文加以完善、补充,籍此对涉生成式人工智能数据犯罪进行全面且系统的规制。
(一)生成式人工智能“自发”侵害数据法益的刑法规制
当生成式人工智能“自发”侵害数据法益时,由于研发者、生产者以及使用者缺乏主观上的故意,实践中无法追究研发者、生产者以及使用者故意犯罪的刑事责任。而现行刑法又缺少专门追究上述主体过失责任的数据犯罪罪名,导致刑法在应对生成式人工智能“自发”侵害数据法益的情形时,不是无所适从就是力有不逮。当然,刑法条文的缺失不能成为我们放任生成式人工智能“自发”侵害数据法益行为的理由。应当看到,在生成式人工智能的迭代发展中,生成式人工智能的研发者、生产者对生成式人工智能具有不容推辞的安全保障义务。因此,我们必须适时调整、完善刑法规定,以应对因研发者、生产者未尽特定义务而导致生成式人工智能“自发”侵害数据法益的情形。
时下,在网络安全领域,我们主要以拒不履行信息网络安全管理义务罪追究网络服务提供者的刑事责任,并据此规制不履行信息网络安全管理义务这一破坏信息网络安全管理秩序的行为。比较而言,对于拒不履行数据管理义务而导致生成式人工智能“自发”侵害数据法益的研发者、生产者,我们似乎也可以追究其拒不履行信息网络安全管理义务罪的刑事责任,也即“生成式人工智能属于一种重要的网络数据服务类产品,其服务提供者(通常是研发者、生产者)也应受到该罪规定的约束。”这就意味着,当生成式人工智能存在“自发”侵害数据法益的可能时,研发者、生产者必须及时履行数据管理义务(采取消除风险、删改程序等措施),防范上述风险的进一步现实化。如果研发者、生产者拒绝履行数据管理义务,且符合拒不履行信息网络安全管理义务罪的规定,则应当以拒不履行信息网络安全管理义务罪追究研发者、生产者的刑事责任。但令人感到遗憾的是,拒不履行信息网络安全管理义务罪的构成要件中仅泄露“违法信息”“用户信息”两类情节可能涉及数据犯罪。这明显无法满足涉生成式人工智能数据犯罪刑法规制的现实需求,我们应当进一步修改、完善拒不履行信息网络安全管理义务罪的构成要件。主要涉及以下两方面:
首先,根据《最高人民法院、最高人民检察院关于办理非法利用信息网络、帮助信息网络犯罪活动等刑事案件适用法律若干问题的解释》(法释〔2019〕15号)第4条的规定,拒不履行信息网络安全管理义务罪规定的“用户信息”仅指刑法中的个人信息,而生成式人工智能通过爬虫技术、“人机交互”以及逻辑推理等方式,完全可能获知商业秘密、国家秘密等具有涉密性质的其他重要信息或数据。因此,将研发者、生产者的保密义务范围仅限定在“用户信息”,明显存在范围过窄的问题。笔者认为,应当将拒不履行信息网络安全管理义务罪中的第(二)项拒不履行信息网络安全管理义务情形修改为“致使涉密信息泄露,造成严重后果的”。只有这样,才能够实现对所有涉密数据信息全方位的刑法保护。
其次,如前文所述,涉生成式人工智能数据犯罪刑法规制需要覆盖数据处置的全过程。生成式人工智能除“自发”实施非法获取、传播、篡改等数据处置上游阶段行为,也可能“自发”实施非法利用、使用等数据处置下游阶段行为。在此意义之上,如果要实现对数据的全方位保护,研发者、生产者的管理义务必须覆盖生成式人工智能可能“自发”实施数据犯罪的所有情形。而拒不履行信息网络安全管理义务罪所规定的涉及数据犯罪的行为方式仅有泄露相关数据信息行为一种,这显然是不充分的。从数据犯罪刑法规制的全面性角度来看,应当增加“非法获取涉密信息、数据”“非法分析信息、数据”“篡改信息、数据”“操纵信息、数据”四项行为方式,以使数据的保密性、完整性与可用性等特征得到充分体现。就此而言,在实践中,研发者、生产者拒不履行信息网络安全管理义务,经监管部门责令拒不改正(拒不采取消除风险、删改程序等措施),实施“非法获取涉密信息、数据”“非法分析信息、数据”“篡改信息、数据”“操纵信息、数据”并达到一定数量标准的情形,则应当追究上述生成式人工智能研发者、生产者拒不履行信息网络安全管理义务罪的刑事责任。
(二)行为人利用生成式人工智能侵害数据法益行为的刑法规制
如前所述,生成式人工智能所具有的逻辑推理、自我学习以及自我纠偏等能力,极大地提升了侵犯数据法益行为的危害程度。这在某种程度上决定了我们不能简单将生成式人工智能与其他犯罪工具等同视之。笔者认为,在面对行为人利用生成式人工智能实施侵害数据法益行为的场合,刑法必须考虑增设一些罪名,以弥补现行刑法规制缺失的问题。
首先,增设非法分析数据罪。应该看到,现行刑法重点规制非法获取、篡改数据等非法控制数据的行为。例如,刑法设置有非法获取计算机信息系统数据罪、破坏计算机信息系统罪等专门罪名,用以规制计算机领域的非法获取数据、篡改数据等行为。比较而言,刑法对非法利用数据行为的规制需要以行为人最终侵犯的具体法益为依据进行判断。如果行为人非法利用数据侵犯数据主体的财产,则可能以盗窃罪、诈骗罪等侵犯财产犯罪罪名追究行为人的刑事责任;如果行为人非法利用数据侵犯数据主体人身权利,则可能以侮辱罪、诽谤罪等侵犯人身权利犯罪罪名追究行为人的刑事责任。但是,由于现行刑法并未针对非法利用数据行为配置专门罪名,导致我们在面对没有造成具体危害结果的非法利用行为时,往往无法以既有罪名追究行为人的刑事责任。由此,我们不难看到,现行刑法在对非法利用数据行为的规制上仍然存在“真空地带”。事实上,行为人完全能够利用生成式人工智能对普通数据进行分析,并在此基础之上获取重要、敏感数据。例如,行为人完全可以利用生成式人工智能产品强大的信息收集能力与信息分析能力,对可能影响证券、期货市场的重要信息进行分析与预判,获取具有高度敏感性的证券、期货市场信息,从而在信息层面迅速拉开行为人与其他投资者之间的距离,形成明显的信息优势地位。
“数据利用”行为规制观首先强调规制非法利用数据行为。有基于此,我们有必要增设非法分析数据罪,将非法分析数据这一典型的非法利用数据行为纳入刑法的规制范围,以避免出现行为人使用合法获取的数据通过生成式人工智能分析重要、敏感数据的情形。所谓非法分析数据行为,应当是指以违法犯罪为目的,通过算法编程对数据进行非法分析、处理的行为。当然,刑法对非法分析数据行为的规制并非没有限制,理论上只有“情节严重”的非法分析数据行为才应当纳入该罪的认定范围。非法分析数据行为是否符合非法分析数据罪中“情节严重”的要求,可以结合行为人非法分析数据的数量、频次,以及是否涉及国家秘密、商业秘密、证券、期货交易等信息敏感领域等因素加以判断。
其次,增设操纵数据罪。在数字经济时代下,数据是信息传播的重要载体,数据能否顺畅、准确地传播在某种程度上决定了数字经济产业能否健康有序发展。正因数据在数字经济时代具有重要地位,部分科技巨头不可避免地倾向于谋取对数据的支配地位。科技巨头一旦通过规模化的数据累积形成对数据的支配地位,便可利用数据支配地位实施数据操纵行为。这种数据操纵主要的行为方式有操纵检索结果、流量造假等。具体而言,行为人完全可能通过操纵后台数据来控制网络检索的具体结果,从而煽动、引导社会舆论。当然,依据具体情节的不同,行为人所实施的数据操纵行为可能涉及危害国家安全罪、妨害社会管理秩序罪等章节的项下罪名。同样行为人也可能通过操纵数据的方式对网络流量加以虚构、粉饰并对具体法益造成侵犯。“流量造假的产业化、扩大化,不仅会制造大量经济泡沫,还会被恶意利用从而侵犯到财产、人格权等基本法益。”根据流量造假的具体内容不同,行为人可能承担诈骗罪、侮辱罪、诽谤罪等罪名的刑事责任。但必须指出的是,伴随着生成式人工智能的广泛应用,数据聚集、使用的效率得到大幅度提升,即便操纵检索结果、流量造假行为没有造成实际的危害结果,其行为本身也已严重侵犯数据管理秩序,且达到刑法必须介入加以规制的程度。因此,理论上并不能以操纵数据行为并没有造成实际危害结果为理由,对此类行为视而不见或熟视无睹。依笔者之见,我们应当设立操纵数据罪专门规制利用数据支配地位操纵数据的行为。无论行为人实施操纵数据行为是否造成实际危害结果,只要其实施了操纵数据行为且达到“情节严重”的程度,就应当以操纵数据罪追究行为人的刑事责任。操纵数据罪的主要行为方式应当是利用数据支配地位编造虚假数据、夸大数据、掩饰数据或者传播虚假数据。对于操纵数据罪中“情节严重”的判断,我们不妨参考上述非法分析数据罪中“情节严重”的判断方式,亦即以操纵数据的数量、频次以及是否涉及特定领域作为主要判断因素。还需要注意的是,操纵数据罪所规制的应当是操纵数据行为而非获取数据支配地位的行为。在数字经济时代下,形成对数据的支配地位并不罕见,科技巨头取得数据支配地位在一定程度上能够更好集中数据资源并高效开发,且利用生成式人工智能等新兴技术,能够起到引领数字经济产业迭代发展的积极作用。笔者认为,刑法所要规制的是不当利用这一数据支配地位的行为。操纵数据行为本质上就是对数据支配地位的不当利用,行为人通过操纵数据的方式将数据支配地位所形成的风险现实化,进而对数据管理秩序乃至特定主体的具体法益实施侵害。对此行为加以刑法规制,既有必要性也有紧迫性。
来源:《当代法学》2024年第6期(第3-15页)。(责任编辑:王勇)
微信号|dangdaifaxue
欢迎关注