上政学报 | 郑煌杰:生成式AI数据风险治理的模式转型——从“传统治理”到“敏捷治理”

文摘   2024-12-03 19:30   上海  

点击蓝字

关注我们


新兴权利法律问题研究


生成式AI数据风险治理的模式转型

——从“传统治理”到“敏捷治理”


本文刊登于《上海政法学院学报》2024年第6期

摘  要

以ChatGPT、Sora、文心一言等为代表的生成式AI的问世,在极大提高人们生产力与创造力的同时,亦引发了诸多数据风险。基于生成式AI的技术原理,可将这些风险归纳为“三阶段风险”。在准备阶段,“用户供给”与“机器爬取”将引发数据非法获取风险;在运行阶段,“数据偏见”与“数据泄露”将导致数据安全风险;在输出阶段,则可能被非法分子利用诱发不良内容生成风险。对此,传统回应型治理与集中式治理面临着适用困境,难以满足复杂多变的治理需求。而敏捷治理凭借其适应性、多元性与包容性的特质,为应对生成式AI数据风险治理提供了有效方案。在敏捷治理的引导下,应构建数据风险全生命周期防控体系,完善数据安全协同治理机制。推进技术融通型法治,以有效纾解“三阶段风险”,赋能我国数字经济发展。


关键词

ChatGPT;生成式AI;数据风险;敏捷治理


作  者

郑煌杰,中南大学法学院博士研究生。

引用格式

郑煌杰:《生成式AI数据风险治理的模式转型——从“传统治理”到“敏捷治理”》,《上海政法学院学报》(法治论丛)2024年第6期。


目  次

一、生成式AI的技术原理与数据风险:以ChatGPT为例

(一)生成式AI的技术原理

(二)生成式AI的“三阶段风险”

二、生成式AI数据风险治理模式的多维探析

(一)回应型治理的局限:与数据风险治理需求的脱节

(二)集中式治理的缺陷:监管僵化与限制创新

(三)敏捷治理的契合:适应性、多元性与包容性

三、敏捷治理下生成式AI数据风险的应对策略

(一)准备阶段风险的消解:构建数据风险全生命周期防控体系

(二)运行阶段风险的化解:完善数据安全协同治理机制

(三)输出阶段风险的纾解:推进技术融通型法治

四、结 语


2022年11月30日,OpenAI发布了一项引人瞩目的技术成果——对话式人工智能ChatGPT,其凭借超群的语言理解、生成及推理能力,在短短两个月间迅速累积1亿活跃用户,创下科技领域内前所未有的增长纪录,树立了一个现象级的应用标杆。如今,以ChatGPT、Sora、文心一言为代表的生成式人工智能应用(以下简称“生成式AI”)在“文生文”“文生图”“文生视频”等领域所取得的杰出成就,预示着AI正从单纯的“感知理解”维度跨越至“创造性生成”的新纪元。与侧重于从大数据中挖掘潜在规律以构建“预测模型”的传统分析式AI相比,生成式AI主要通过深度学习庞杂数据集,实现内容的自主创造。进言之,数据是生成式AI的核心要素,其在模型训练与优化、内容生成等阶段都需要以数据为支撑。然而,伴随其对大规模数据的采集、处理与生成操作,一系列数据安全问题亦浮出水面。例如,2023年3月20日发生在意大利的重大信息安全事件,揭示了部分ChatGPT用户聊天记录泄露的严峻事实。同年6月,OpenAI面临集体诉讼,用户指控其在未获授权的情况下处理个人数据,要求经济赔偿,进一步加剧了公众对于生成式AI 数据治理缺陷的关注与忧虑。随着此类应用的推广与普及,与其相伴的数据风险挑战或将日益加剧。鉴于此,中共中央政治局于2023年4月28日召开会议并指出:“要重视通用人工智能发展,营造创新生态,重视防范风险。”这句话意味着规制生成式AI 的双重政策目标:营造良好环境,促进产业健康发展和防范风险。紧随其后,国家网信办联合国家发改委、科技部、教育部等七部门于2023年7月13日发布《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”),其中明确了生成式AI的适用范围、责任主体认定、服务规范等方面内容。
在上述背景下,学界对于生成式AI风险治理问题展开了一定研究。在风险类别上,有学者提出基于生成式AI的技术原理,其可能诱发数据使用风险、生成内容滥用风险、算法滥用风险;有学者则认为生成式AI相较于传统AI,具有“涌现性”和“同质性”的全新特点,易引发虚假信息泛滥等风险。在规制理念上,有学者建议从法律与技术层面共同推进生成式AI的可信治理;亦有学者提出应当建立生成式AI风险治理的元规则。在治理路径上,有学者建议通过“数字人本主义”的通用AI规制在伦理、技理、法理诸层面助推构建“人类命运共同体”;有学者则强调产业链视角下的治理逻辑,主张精准治理和参与式治理协同;还有学者提出,应建立负责任的、可信的、以人为本的生成式AI发展生态。诚然,这些研究奠定了生成式AI数据风险的治理基础,但仍存在值得商榷之处:第一,生成式AI数据风险的界限划定尚欠明晰,易陷入冠以“数据风险”之名,而实质探讨内容却模糊于“信息风险”等一般风险分析之困境,这不仅混淆了概念边界,也弱化了数据风险的特殊性;第二,针对生成式AI数据风险应选择何种治理模式,现有研究虽有触及,但模式选择的合理性与必要性,亟需得到进一步阐释;第三,当前生成式AI数据风险应对策略呈现出分散化特征,缺乏一个整合性视角下的系统梳理,导致难以提供具有针对性、精准性的治理方案。因此,本文拟基于生成式AI的技术原理,深入剖析其引发的数据风险,并以现行国内外数据治理立法与实践为依据,对其治理模式的选择展开学理论证。在此基础上,提出契合本土实情的治理框架,希冀对生成式AI安全可控发展有所裨益,为数字时代下数据安全治理提供智慧借鉴。
一、生成式AI的技术原理与数据风险:以ChatGPT为例
(一)生成式AI的技术原理
生成式AI虽然属于新兴数字技术,但其技术理论的起源可以追溯到20世纪40年代的“控制论”,彼时聊天机器人Eliza的出现也标志着人与计算机之间的自然语言对话成为可能。审视当下,各种生成式AI(如Dall-E2、Stable Diffusion、ERNIE Bot 等模型)正在不断涌现,本文以用户基数较大的ChatGPT为分析模型,旨在阐释生成式AI 的技术本质。与之前的Siri、小冰等功能单一的聊天机器人相比,ChatGPT“突破”的技术优势主要在于:其一,ChatGPT拥有更强大的记忆能力,可以记住与用户的聊天内容,并理解其上下文语境,可以进行连续多轮的对话,保持更加自然的对话效果。其二,ChatGPT可以拒绝用户不适当的请求并主动承认错误,这使得用户对其信任度更高。其三,根据《暂行办法》第22条规定,生成式AI是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术,即具有多模态性特征,可以满足不同场景需求,为用户提供更加全面的服务。而ChatGPT 之所以能实现技术突破,主要在于Transformer架构模型。与传统的循环层(编码器—解码器架构)不同,Transformer架构采用自注意力机制,可以快速掌握数据之间的联系,并学习自然语言的语法规则。 结合OpenAI在官方网站对ChatGPT的介绍,可以将其运行机制大致划分为准备阶段、运行阶段和输出阶段(见图1)。在准备阶段,ChatGPT通过学习训练和算法升级来获取知识和技能,需要大量的数据作为输入,以便从中提取模式和规律。在运行阶段,利用自身算法模型来处理输入数据。在输出阶段,不仅会生成高质量结果,还会根据算法模型的反馈来优化自身输出结果,以实现真正的自我学习。

图1  ChatGPT的运行机制
(二)生成式AI的“三阶段风险”
目前我国数据治理体系主要建立在《数据安全法》(以下简称“《数安法》”)、《网络安全法》(以下简称“《网安法》”)、《个人信息保护法》(以下简称“《个保法》”)体系的基础上,要求数据处理者应以保障网络安全、数据安全、个人信息安全为原则,进行数据的收集、使用与处理等活动。在此体系下,基于对生成式AI技术原理的剖析,可以将其引发的数据风险归纳为“三阶段风险”。
1. 准备阶段:“用户供给”与“机器爬取”引发的数据非法获取风险
基于生成式AI的技术原理可知,其仰赖于庞大语料库的支持,该语料库作为语言知识的宝库,承载了丰富的表达模式,是算法理解与生成语言的核心基础。而构建与更新语料库主要通过“用户供给”与“机器爬取”两种方式。就前者而言,作为一种用户交互驱动的数据积累策略,通过对话界面吸纳用户输入的信息。此过程不仅直接映射用户意图与语言习惯的真实图景,还通过反馈循环机制动态优化语料库,实现精准响应与内容质量的迭代升级。从后者来看,该方式凭借自动化数据搜集工具(网络爬虫),横跨多元领域与广泛来源,确保模型训练材料的全面性与多样性。这种广谱性收集数据的方式,既丰富了生成内容的知识底蕴与视角多样性,亦促进了模型泛化能力的提升,确保生成式AI在面对复杂问题时能提供多维且精确的解答。
然而,不论是采取“用户供给”抑或“机器爬取”方式,均面临合法性考验。在“用户供给”过程中,用户与诸如OpenAI之类的服务供应商互动时,对其个人信息的收集与后续处理细节往往认知模糊。尽管OpenAI的服务协议试图框定在法律与伦理范畴内收集信息,并承诺履行信息“清除”责任,但因缺乏详尽的操作指引及责任履行细则,潜在风险丛生:其一,可能导致个人隐私权益受损。根据《个保法》第45—50条的规定,信息主体享有知情同意权、删除权等个人信息权益,但在现行机制下个人信息(数据)或被持续用于模型训练,侵权风险陡增。其二,信任赤字显现。用户因不明晰个人信息处理的具体路径,易减少提供真实数据的意愿,进而削弱了生成式AI的可靠性和数据质量。另一方面,在数字时代,数据已经被公认为是一种重要的生产要素,故在“机器爬取”数据的过程中,各国法律普遍承认“正当爬取”行为的合法性。不过,此行为并非毫无约束,我国在《刑法》第285、286条等条款中对破坏计算机信息系统罪行进行了界定,以遏制对目标网站造成重大影响及危害社会的数据爬取活动。故此,生成式AI若偏离合法目的或超越合理边界进行数据爬取,极易触碰非法获取数据的法律红线。意大利个人数据保护局对OpenAI的调查及ChatGPT的暂时封锁,便是国家层面对于非法获取数据行为严厉态度的例证。进言之,非法获取数据不仅关乎个人权益与企业信誉,还触及国家数据安全及主权领域。一旦生成式AI将非法获取的数据跨境传输,将侵犯目的国的数据主权,甚至可能引发国家安全层面的严峻挑战。
2. 运行阶段:“数据偏见”与“数据泄露”导致的数据安全风险
就“数据偏见”而言,开发人员能够通过筛选数据集与干预算法设计的方式,在生成式AI的训练过程中嵌入特定偏好,诱导生成内容映射出预设的价值导向。例如,如同其他语言模型,ChatGPT同样难以逃脱设计者决策所赋予的非中立性,其认知框架受制于算法与数据训练的先验选择。即便OpenAI在GPT-3.5模型实施的人类反馈强化学习(RLHF)机制,通过人工评分优化模型产出,以贴近人类社会的价值评判标准,却也暗含双刃剑效应:首先,设计者的选择偏好可能被利益动机扭曲,利用带有倾向性的数据塑造模型,无形中对用户思维及行为施加定向影响。数据集内固有的偏见与歧视,或源于采集过程的人为偏误,或反映社会不公,如未经有效校正,将直接渗透至生成内容,加剧既有不平等现象。其次,生成式AI在生成内容方面存在局限性。倘若生成式AI只依赖英文(或中文)语料库进行训练,其输出内容将倾向于反映西方(东方)价值观。比如,当询问ChatGPT如何评价抗美援朝战争的中国军人与美国军人时,其生成内容通常是体现西方的价值观。再者,数据资源的地域性不均衡加剧了生成式AI对不同群体的差异化表现。在全球文化观念交锋的宏观背景下,生成式AI更易沦为意识形态操纵的工具,少数拥有核心AI技术的国家,试图以其价值观为导向构建“全球规则”,此举无疑会加剧数据治理领域的权力失衡,威胁国际安全格局的稳定,对边缘化国家的国家安全构成潜在风险。
从“数据泄露”来看,基于对生成式AI运行阶段的剖析,可进一步细分为“交互迭代风险”与“定制化风险”两种类型。前者指的是,用户在与AIGC的互动中,无意间提供的输入资料常被纳入迭代数据范畴,引致潜在的数据外泄问题。例如,根据OpenA的隐私策略,其为提升GPT模型效能,可持续利用及处理个人及派生数据,此点若未得到用户充分理解,则可能促使用户在无意识中透露敏感信息。又如,根据数据安全服务机构赛博天堂(Cyber Heaven)的检测显示,其客户公司的160万名员工中已有4.2%将包含商业秘密的数据输入ChatGPT,其中有高管将战略文件复制到ChatGPT并利用其生成幻灯片,一旦被盗用或窃取,后果不可想象。类似的“无意”行为,并非罕见现象,根据Veritas的调研,在中国受访者中有37% 的员工承认曾将潜在敏感信息输入生成式AI工具,且有50%和58%的受访者没有意识到风险,或并不了解这样是否会导致其公司违反数据隐私合规法规。由此可见,生成式AI已促成数据流动与反馈的高效闭环,而如何在技术创新与法制框架内,构建一套既能保障数据安全又能持续优化服务的数据保护机制,已成为当前亟待攻克的法律与技术难题。
“定制化风险”则是指,为满足不同主体的需求而量身定制服务,这也是生成式AI的商业拓展方向。在追求服务定制化的精密工程中,算法设计者首先需系统搜集与特定需求紧密相关的数据集,涵盖用户的个人信息、特定情境下的偏好乃至行业专有知识,并将此数据划分为训练、验证与测试子集,以通过持续的模型调优与性能监测,确保输出的定制化服务既高效又贴合实际需求。例如,欲使ChatGPT掌握五言律诗的创作技艺,就必须向其输入严格遵循“五言八句、平仄有序”的语法规则及其经典范例,借由其自我学习与迭代机制,实现诗词创作的指令。然而,定制化进程中的数据转移环节,却成为信息安全的薄弱环节。2023年3月20 日OpenAI官方通报的一起事件,揭示了这一风险的严峻性:因开源数据库配置疏漏引发的缓存异常,导致部分用户意外访问到其他用户的聊天记录片段及敏感财务信息(包括信用卡尾号、全名及支付地址)。尽管初期影响范围有限,但后续的服务器调整操作不当,却不幸加剧了这一安全漏洞,最终影响用户比例攀升至1.2%,明确暴露出ChatGPT在数据保护方面的脆弱性。
3. 输出阶段:被非法分子利用诱发的不良内容生成风险
尽管生成式AI展现出卓越的泛化与创造性生成能力,但实质上其是对语料库进行深度的“自我学习”与“前瞻式预测”。具体而言,在模型的孕育阶段,海量文本素材的灌输既催化了生成式AI对语言特性的捕捉、规则的内化及模式的提炼,而且这一学习路径深刻嵌入了对庞杂数据的统计性剖析,涵括词汇频率、句法构造、语义关联等诸多面向。训练成熟后,其就能凭借所提炼的统计模型框架,对输入查询进行前瞻性推演,从而输出看似精确的响应。进言之,生成式AI生成内容的逻辑与语义基础,并非植根于即时的深入解析,而是过往数据趋势的外推与映射。因此,生成式AI所提供信息的单一性与特定性,与百度、谷歌等传统搜索引擎存在根本差异,后者倾向于展示多源、可追溯的信息集合。换言之,生成式AI生成内容的排他性与无源性,为信息的真实性验证设置了障碍,由此为不法行为敞开了大门。例如,有非法分子利用ChatGPT撰写一篇“2023年3月1日起,杭州市政府将取消机动车尾号限行政策”的“新闻报道”,许多公众并没有辨别出其真实性,造成了不好的社会影响。又如,网络安全论坛GBHackers揭露的案例,揭示了黑客如何运用ChatGPT迅速构建复杂的欺诈脚本,并巧妙伪装为可信的“虚拟身份”,诱导受害者陷入精心设计的情感陷阱,最终导致财产损失。
二、生成式AI数据风险治理模式的多维探析
当前,社会正处于一场围绕生成式AI的新卢德主义思潮之中,该现象聚焦于技术进步带来的伦理与安全困境。2023年3月,一封汇聚了超2万名签署者,包括科技界巨擘如苹果公司联合创始人史蒂夫·沃兹尼亚克、企业家埃隆·马斯克的公开信,呼吁全球AI研发机构暂停生成式AI研发活动至少半年,共同建立一套通用的安全准则,以防范其引发的安全风险。此番行动映射出两种极端思维模式:保守主义倾向可能抑制创新活力,而过度的激进探索则易于放大安全保护的脆弱性。在应对科技引发的风险时,学界与实务界普遍采纳“成本-效益分析”与“风险预防”两大原则。两者虽各有千秋,但在面对生成式AI本身的高度不确定性和潜在风险时,“风险预防原则”应被赋予法律应对策略的核心地位,以体现前瞻性的风险管理哲学。事实上,生成式AI已显现的数据安全隐患仅是潜在问题的表层展现,犹如浮出水面的冰山一角。根据“破窗理论”,若初期的管理疏漏未能得到及时修补,后续可能触发连锁反应,导致风险格局复杂化,超出可控范畴。因此,亟需提前构建适应性治理框架,回溯全球数据安全法律体系与实践历程,从被动响应的治理模式,到中央集权式的监管尝试,再到强调灵活性与适应性的敏捷治理策略,每一次转变均是对前一阶段不足的反思与超越。通过细致剖析这三大治理模式的效能、适用场景以及对经济发展的潜在影响,可以更为精准地定位符合当前技术发展阶段、社会需求的最优治理路径,以指导政策设计与监管执行,引领生成式AI向安全、可持续方向发展。
(一)回应型治理的局限:与数据风险治理需求的脱节
在数据风险治理早期,核心理念在于促进数据的合法流通和共享,为数字技术的创新与发展提供坚实基础。此时数据风险的治理模式,主要是以引导性原则为基础,提倡企业自主承担风险治理责任,并辅之适度的监管,以推动数据资源的高效利用,回应潜在的数据安全风险。有鉴于此,许多国家颁布了引导性法案和准则,鼓励企业加强数据安全保护,并建立完善的数据风险治理体系。例如,美国在《驾驶人员隐私保护法案》《视频隐私保护法案》《生物信息隐私法案》等法案中对数字技术应用的数据风险进行了规制。欧盟在《人工智能法案》中将可能对人的基本权利和安全产生风险的等级,划分为“不可接受风险”“高风险”“有限风险”“最小风险”四个类别,并采取不同的监管措施,要求“开发者需履行风险管理和数据治理方案”等义务。新西兰隐私专员办公室(OPC)则于2023年5月发布的《生成式人工智能指南》中指出,生成式AI服务提供者在处理数据过程中应遵守《2020年隐私法》相关规定。《数字经济伙伴关系协定》《新加坡- 澳大利亚数字经济协定》《韩国- 新加坡数字伙伴关系协定》等协定中亦包含数据风险治理的相关内容。
诚然,回应型治理在数据风险治理初期能够满足部分需求,但也存在诸多局限之处。首先,这种模式在处理数据风险时容易出现碎片化、零散化的现象,缺乏整体性的规划和统筹。数据风险治理通常需要跨部门合作和综合性的方案,而回应型治理只能对数据风险发生后进行局部应对,缺少纵向和横向的协调性。例如,在数据保护领域,回应型治理侧重于数据事件发生后的应急处理,而忽略了对数据的收集、存储、使用、处理等阶段的管控。其次,这种模式在数据风险治理的效能上存在限制。在回应型治理下,数据安全措施无法形成有机衔接,导致治理效果无法实现最大化。比如,当数字企业面临数据风险时,如采取单一的技术手段和安全措施加以应对,没能在体系层面进行整体规划和协调配合,那么“应对方式”之间的不协调性将难以全面抑制数据风险,从而降低数据风险治理效能。再次,这种模式也不符合立法趋势。例如,欧盟在GDPR第32条中,明确要求个人数据控制者必须采取预防性措施来保护个人数据。我国《网安法》第41条亦规定,网络运营者需承担防止个人信息泄露、毁损和丢失的“预防”义务。美国则在《数据隐私和保护法》(AmericanData Privacy and Protection Act,ADPPA)中对“大型数据持有者”设置了个人信息保护方面的“预防”义务,如强化事先告知、隐私风险影响评估等。这些立法规定与强调事后回应的回应型治理存在巨大张力,申言之,该模式依赖于数据风险的发生,缺乏主动性和前瞻性,往往是在数据安全事态严重之后才采取措施,这种被动的应对方式显然无法有效地预防和减少数据风险,亦难以满足数据安全管理的整体性需求。
(二)集中式治理的缺陷:监管僵化与限制创新
相比于回应型治理,集中式治理具有更高的预见性和主动性,强调“等级划分”和“权力集中”,以更早地预防和应对数据风险的发生。在“等级划分”中,具有不同职务等级的责任人,能够根据数据风险治理相关规定,明确各自的职责和权力,以实现前瞻性防范和行业整体监管。“权力集中”则保证了数据风险的高效治理,避免由于多重数据治理层级导致的延迟和不必要的损失,确保整个行业的数字安全和稳定运营。我国数据风险治理正处于集中式治理阶段。具言之,基于立法层面,我国已相继颁布多项涉及人工智能与数据风险治理的法律法规,其中包括《暂行办法》《数安法》《网安法》《个保法》等,旨在明确对数据收集、使用、处理等活动的要求,建立一个明确的集中式治理框架,确保数据管理的安全性与合规性。基于监管层面,监管部门对高新数字产业持有严格的监管态度。例如,为了确保互联网巨头企业依法运营与数据安全,政府采取了有力的监管手段,多次对其实施了数据安全审查与处罚。这种强硬监管态度的背后,反映政府对高新数字技术产业与风险管理的重视,也表明其在加强跨部门合作、构建行业监管体系等方面发挥了关键作用。
然而,集中式治理也存在较大缺陷,尤其在应对“日新月异”的科技发展和数据风险的过程中,这种模式表现出僵化和不灵活的特点,导致其监管弹性不足。详言之,其一,集中式治理的应对机制缺乏灵活性。数据风险的不断变化需要政府或监管机构具备快速应对的能力,但该模式限制了其在反应速度和决策灵活性上的发挥。例如,当生成式AI在运行阶段遭受黑客攻击或存在漏洞时,监管机构应快速作出反应并采取适当的措施。然而,该模式需要较长的时间适应新风险以制定相应的政策和措施,因此,容易错过遏制和降低数据风险的最佳时机,无法及时保障相关主体权益。其二,集中式治理的决策过程缺乏多元性。该模式使得决策权集中在中央政府或权力机构手中,导致生成式AI利益相关方的意见难以被充分考虑,无法有效地获取和融合多样的建议,从而限制了决策结果的科学性与合理性。其三,集中式治理会阻碍生成式AI的创新,不利于数字产业的进步和发展。该模式的“刚性”特点,使得监管机构易对数字技术强制实施过多的限制性措施。根据近期英国时政杂志《经济学人》指出,现阶段我国在生成式AI的研究开发上落后于美国两到三年,其根本原因在于训练数据、芯片等硬件及科技人才上与美国的距离。进言之,倘若一味对生成式AI进行严格地监管与治理,难免会抑制其创新与应用,亦会打击技术研发者创新的积极性。
(三)敏捷治理的契合:适应性、多元性与包容性
在面对生成式AI复杂多变的数据风险与治理挑战时,回应型与集中式的传统治理模式显得力不从心。因此,迫切需要推动数据风险治理模式的转型,以构建完善的数据风险治理体系。而敏捷治理作为一种基于敏捷方法论的治理模式,能够为其提供新的思维和方法。敏捷治理的核心理念在于,通过“持续适应”和“灵活性”来处理复杂问题。其中,“敏捷”一词可追溯至20世纪80年代的制造业领域,强调在快速变化的市场环境下探索更加高效的生产模式,以提升企业的适应能力和生产效率。“持续适应”特点体现在通过持续的学习和改进,及时调整策略和方法,“灵活性”则表现于强调适应变化和包容多样性。进言之,在敏捷治理的引导下,可以采取不同的战略和方法来保障生成式AI数据安全,以全方位应对“三阶段风险”。因此,可在前述总结回应型治理与集中式治理不足的基础上,基于敏捷治理的特质,论证其适用于生成式AI 数据风险治理的契合性。
第一,敏捷治理具有较强的适应性,能够快速应对突发的数据风险。有观点亦称其是一种自适应,具有包容性和可持续性的方法,具备灵活应对新兴数字技术挑战的能力。生成式AI的“三阶段风险”充满了不确定性与突发性,一旦出现数据风险将对个人、社会和法律秩序造成严重冲击。因此,亟需转变治理思维,即侧重于事前预防,而不是事后惩罚,从被动安全转向主动安全。一方面,敏捷治理强调风险预防。通过“主动学习”来增强数据安全和风险防控能力,以纾解数字社会快速变迁和监管滞后之间的冲突。例如,监管者可以通过对数据、算法和模型的学习来增强对风险的识别能力,并采取相应的措施进行修正和改进。这种预防性措施可以帮助监管者在风险发生之前就加以遏制,从而减少其潜在的负面影响。另一方面,敏捷治理注重应时而变。由于生成式AI数据风险的突发性,监管者需要能够快速、及时地作出反应。这意味着,需要建立起一套快速响应的机制,管理者也应具备敏锐的风险意识和快速决策的能力,以便在风险事件发生后能够立即采取相应的措施,这恰好与敏捷治理的适应性相契合。
第二,敏捷治理具有多元性,提倡多方共治,以实现数据风险的高效治理。根据《暂行办法》第9条、第22条等规定,生成式AI在训练过程中将涉及服务提供者、内容生产者、使用者等多方主体。然而,以政府部门为中心的回应型与集中式治理模式,限制了其他主体的积极参与,导致无法形成“共赢治理”的局面,也难以适应数据风险的突发性与不确定性。相较而言,敏捷治理能够更好地实现多方参与。在该模式下,政府、企业、学界等多方主体都能参与生成式AI数据风险的治理过程,发挥多方主体的能动优势来达成风险治理的共识。例如,政府作为监管者,需要积极倡导并制定相关政策法规,以规范生成式AI数据风险的治理行为;企业作为数据处理的主要实施者,应当注重合规管理,加强对生成式AI数据的技术审计和风险评估,以及用户隐私保护的措施;学界则可以加强生成式AI数据风险的研究,分析和评估不同治理方法的有效性,并提出相关的政策建议。简言之,敏捷治理使得各方主体之间的协作,不仅仅是协助与被协助的关系,而是一种充分互动的合作关系,这既有利于提高生成式AI数据风险治理的整体效能,还有助于协作主体共同推动其应用与发展。
第三,敏捷治理具有包容性,有利于推动生成式AI的持续创新。虽然生成式AI 存在“三阶段风险”,但客观而言,其代表着人工智能迈向一个新的起点,将促进传统产业的数字化转型。因此,针对生成式AI数据风险治理应保持审慎的态度,防止过度干预其创新与发展,以充分实现智能革命为人类社会带来的福祉。在此前提下,敏捷治理鼓励探索新的治理工具和方法,以确保治理的可持续性,实现机会与风险之间的合理平衡。这种模式与我国政策语境中的“包容审慎监管”理念不谋而合。例如,我国在2019发布了《新一代人工智能治理原则——发展负责任的人工智能》,其中将“包容共享、开放协作”作为AI技术研发与应用的重要原则。最高人民法院于2022年发布《关于规范和加强人工智能司法应用的意见》,要求强化网络安全、数据安全和个人信息保护能力,并提出应推动人工智能技术的创新进程和人民法院改革发展实践,积极探索并不断拓展新的人工智能司法应用的场景与范围。《暂行办法》第3条亦规定,坚持促进创新和依法治理相结合的原则,采取有效措施鼓励生成式AI的创新发展,对其相关应用服务实行审慎监管。上述文件与规定内容表明,当前我国对于高新数字技术的监管,正在从过去的“严格防范”向“包容审慎”转变,强调发展与治理并重,这亦与敏捷治理的“包容性”相契合。
三、敏捷治理下生成式AI数据风险的应对策略
(一)准备阶段风险的消解:构建数据风险全生命周期防控体系
如前所述,敏捷治理的适应性核心价值在于前瞻性的风险预防机制,这对于身处大数据洪流的当下社会,无疑是重要的战略导向。国际标准化组织(ISO)亦在《ISO31000风险管理标准》中,明确提出了规避、接纳、转移及控制等多种风险应对策略。在此基础上,应正视生成式AI数据风险的不可避免性,并聚焦通过运用多元化治理策略,以达到风险控制与技术发展的动态平衡。从“三阶段风险”的产生与传播链条来看,仅重视数据关键点的关联与分析是远远不够的,必须将视角扩展至数据流动与集成的全生命周期管理,嵌入风险预防原则,确保生成式AI在整合与分析数据过程中,无论是有意还是无意,均能受到有效监控与约束。这一过程既涉及技术手段的创新,还需法律与政策的紧密配合,以形成多维度的数据风险防控体系。
具言之,对“用户供给”获取的数据来说,应完善生成式AI市场准入与管理体系。首先,可借鉴欧盟《人工智能法案》的先进经验,引入分层审批的市场准入制度,根据生成式AI数据风险等级实施差异化管理。例如,高风险应用需经过严格评估与官方审批,而对中低风险应用,则采取逐步降级的监管策略。这种分层管理模式,为生成式AI的市场准入设置了清晰且具有弹性的规范标准,既体现了风险导向的治理原则,又促进了技术创新与风险控制的和谐统一。其次,优化生成式AI数据获取与使用的规范体系。生成式AI的数据训练过程涉及复杂的数据标注、隐私保护及法律责任等多方面挑战,对此,明确数据来源、采用合规的数据获取方式,并实施数据清洗与去标识化技术,是确保数据质量与保护个人隐私的必要举措。通过这些技术与管理手段的结合应用,可以显著降低数据滥用与泄露的风险,为生成式AI的发展奠定坚实的信任基础。再者,建立常态化的合规审查机制。研发团队应引入数据风险评估框架,定期对数据处理流程进行全面检查:从数据源的合法性、数据处理的透明度直至数据存储的安全性,进行系统性评估与风险量化,及时发现并修正潜在漏洞,以强化生成式AI数据安全防线。同时,为了加强对数据风险的控制,可以要求生成式AI服务提供者完善数据安全管理制度,包括数据安全策略、数据权限控制、数据加密与传输等内容,具体可参考GDPR中“数据处理限制”“通知违规”“数据映射”等有关数据安全管理的规定。
在针对“机器爬取”所获数据的处理上,亟需建立一个精密的网络攻击监测与管理系统,以防止重要数据在不良披露与不当聚合分析中,被非法引入生成式AI训练语料库之中。该系统应依托于先进的技术工具,对网络流量进行深度监测与分析,以实现对网络攻击的早期预警与主动防御策略,增强数据保护的韧性。美国国家安全局(NSA)的ICREACH系统即为一例证,其运用了尖端的网络安全技术和AI算法,对庞大的互联网流量实施实时监控与分析,精准识别潜在的威胁与异常活动,确保网络空间的安全稳定。而构建此类系统,应遵循以下四个核心策略,以确保其有效性和合规性:其一,深化数据分类与分级机制。数据分类分级是数据保护的基石,直接关系到治理的精准度与效率。我国《个保法》第13条至第43条及第44条至第50条,通过区分“一般个人信息”与“敏感个人信息”的方式,确立了分类保护原则。由此,应进一步细化数据分类标准,根据数据的敏感程度、价值及潜在影响将其划分为不同级别,并明确对应级别的保护措施与安全控制要求。特别是对于个人隐私数据和商业秘密等高敏感信息,应当施以更为严密的防护措施,确保合规性与安全性并重。其二,集成先进技术,以强化监测能力。随着AI和机器学习技术的飞速发展,网络安全监测步入智能化时代,故应充分利用这些技术,构建自动化网络监测系统,以应对海量数据的实时分析需求。自动化监测既能大幅提升处理速度与精度,还能通过行为模式分析,精准识别异常行为,及时响应潜在威胁。例如,通过深度学习算法解析用户行为模式,系统能快速识别未经授权的访问、数据外泄等恶意活动,有效阻断数据安全风险。其三,促进数据监测者与数字平台的协同运作。数字平台方应积极与数据监测者形成紧密合作,共享数据资源与分析结果,形成数据保护的合力,共同筑起抵御网络攻击的坚固防线。其四,推动国际合作与信息共享机制。各国应加强沟通,共享网络攻击情报与防护技术,携手构建国际安全屏障。同时,相关国际组织和标准化机构也应在数据流动治理方面发挥积极作用,推动全球数据的安全流动,GDPR就是一个成功的借鉴范例。
(二)运行阶段风险的化解:完善数据安全协同治理机制
敏捷治理的多元性,强调协同合作,整合多方力量,形成一种多维度、多主体参与的协同共治机制,超越传统单一依赖政府指令性管理的局限。在生成式AI 数据安全治理实践中,这种协同共治理念要求充分调动政府的政策引导作用、企业的技术创新优势以及公众的社会监督力量,确保数据安全治理机制的全面性与高效性,平衡各参与主体的利益诉求,促进数据安全生态的和谐发展。
具言之,针对“数据偏见”风险而言,强化算法解释权成为维护其可信度与公正性的核心途径。在信息时代背景下,算法决策不仅影响个体权益,更关乎社会结构的公正与透明,而算法的黑箱属性,即其复杂性和非直观性,构成了理解与监督其决策过程的重大障碍。因此,增强算法的可解释性,旨在揭开算法决策的神秘面纱,使用户及所有利益相关方能够洞察算法逻辑,评估其决策影响,是构建可信赖数据训练体系的基石。欧美地区的立法实践为此提供了有益参考:欧盟GDPR通过赋予数据主体干预权和异议权,强化了算法透明度;美国则在《算法透明性和可问责性声明》中明确了算法解释的必要性,体现了对算法正义的追求。而我国则在算法解释权的法律规制上经历了从原则性倡导到具体规定的过渡:在2021年发布的《新一代人工智能伦理规范》中已初步提及算法可解释性的重要性,直至2023年《暂行办法》的出台,才在第19条中首次明文规定算法解释权。然而,该规定的实施仍面临挑战:一是其适用范围限于监管机构,未能全面覆盖所有受影响的权益主体,导致部分相关方的权益保护存在盲区;二是对于算法解释的具体操作层面指导不足,抽象的原则表述可能导致实践操作层面的模糊性和不确定性。
鉴于此,亟需深化并扩展算法解释权:首要之务,在于拓宽算法解释权的主体边界,实现权利主体的多元化。这一扩展不仅应包括监管机构,还应囊括生成式AI的开发者、数据供应商、最终用户等所有直接或间接受算法决策影响的关键利益相关方。此举意在赋予上述主体以法定权利,使之得以向算法服务提供者索取详尽的算法解析与说明,从而深化对算法运作逻辑及其判断基准的理解,提升算法治理的透明度与正义性。其次,应细化算法解释权的内容框架与评判标准。此标准应明确涵盖算法的输入数据、输出结果、逻辑推理路径,尤其是对个人敏感信息的处理方法等关键环节,确保解释的全面性和深入性。以生成式AI在信贷评估场景的应用为例,用户理当被赋予权利,要求明确算法如何基于其信用记录、收入状况等多元指标进行评估。这方面的实践可借鉴美国《公平信用报告法》(FCRA)对消费者信息解释权的规定,以及我国《商业银行法》有关信息“解释”义务的法条,为用户提供清晰的解释路径。同时,算法解释的表现形式亦需注重直观性和可验证性,利用图表、流程图等可视化手段,增强用户对算法逻辑的直观理解与信任度。再者,构建系统的算法监管与评估机制。在此过程中,监管机构应扮演核心角色,既要监督算法解释权的实施情况,还须确保算法服务提供者遵循解释义务,提交详尽的算法说明文档以供审核。此外,设立独立的第三方评估机构或组建专业评估团队,负责检验算法解释的准确性和合理性,是确保算法解释可靠性与真实性的关键步骤。此类机制的设立,旨在通过专业的外部审核,增强算法决策过程的公信力,为用户及其他利益相关者的权益构筑坚实防线。
在处理数据泄露风险时,应从事前数据保护与事后应对处理两方面着手,即“数据风险控制”与“数据风险应急”,以构建全方位的数据安全管理体系。就“数据风险控制”而言,需建立全面的数据处理风险预防机制,使语料库数据时刻处于安全可控的状态。具言之,首先,数据分级保护是风险控制的重要前提。根据《网络数据安全管理条例(征求意见稿)》(以下简称“《征求意见稿》”)第9条规定,我国已将数据分为国家核心数据、重要数据和一般数据,并对其进行差异化保护。在数据分级保护中,不同等级的数据应拥有不同的保护措施。例如,对于国家核心数据应采取最高级别的保护措施,特殊权限应该授予有资质的管理员;对于核心数据库可采用物理隔离和访问控制等措施;对于重要数据和敏感数据,可采取加密访问等措施;对于一般数据则可以采用较为简单的保护措施。其次,数据风险监测和评估是风险控制的核心要素。根据《数安法》第29、30条规定,生成式AI服务提供者应采取有效手段实施数据风险监测。一旦发现数据安全漏洞或其他风险,应立即采取相应的补救措施,以最大限度降低潜在的数据风险。同时,生成式AI服务提供者还应定期进行数据风险评估,评估范围应涵盖数据获取、存储、传输、处理等环节。风险评估结果应以报告形式提交给相关主管部门,使监管机构能够对数据处理活动的合规性和安全性进行审核和监督,以确保数据处理活动的稳定性和可靠性。再次,设立数据安全负责人和管理机构是风险控制的重要措施。根据欧盟GDPR第37条的规定,在数据处理活动中,必须设置“数据保护官”,负责数据保护工作,我国《数安法》第27条对此进行了类似规定。因此,生成式AI服务提供者也应当设立数据安全负责人和管理机构,以履行数据安全保护义务,具体义务内容可参照《征求意见稿》的第28条的规定。
尽管“数据风险控制”能从整体上提高生成式AI的数据安全保护能力,但仍无法完全避免数据风险事件的发生,故应辅之“数据风险应急”,以应对突发性数据风险,保障用户数据安全。首先,生成式AI服务提供者应明确数据安全责任人的职责。责任人不仅需兼具技术和管理能力,能够负责应对潜在的数据安全威胁;还需成立应急响应团队,并按照预设的应急预案履行职责,及时采取措施防范和处理数据安全事件。其次,应急预案既应包括对数据安全事件进行分类,也需制定相应的等级划分标准。划分等级可以依据数据的重要性、涉及的个人隐私及机密性等因素设置,以帮助应急响应团队更好地理解事件的紧急程度,并采取相应的措施。第三,生成式AI服务提供者需事先制定应急响应措施。在制定措施过程中,应考虑到生成式AI的特殊性,确保应对措施与“运行阶段风险”相匹配,并能够最大限度地减少其潜在的数据风险,具体可包括暂停服务、隔离受影响的系统、采取紧急等措施。第四,针对不同类型的数据风险事件,应制定相应的应急预案。由于不同类型的数据风险具有不同的特征和紧急程度,故应制定区别对待的预案。例如,针对数据泄露、未经授权访问、不良攻击等不同类型的事件制定相应的预案,并且预案应根据实际情况进行定期修订,以确保其适应性和有效性。最后,为了提高应急预案的灵活性,需进行定期的演练和测试。通过实际演练和模拟测试,可以评估应急响应团队的准备情况,发现潜在的漏洞和改进空间,并及时对应急预案进行调整,提高应急响应团队的风险应变能力。
(三)输出阶段风险的纾解:推进技术融通型法治
前已述及,生成式AI生成的不良内容不仅会侵权个人权益,还会对其技术发展与国家、社会稳定造成巨大威胁。对此,应充分发挥敏捷治理的包容性优势,综合运用技术与法律手段,以全方位预防不良内容生成风险。
1. 技术层面
一方面,服务提供者需致力于精炼并强化生成式AI的生成机制,以有效抑制不良内容的生成。首先,应融合深度的自然语言处理与先进的机器学习算法,构建一套精密的内容监测与过滤体系。这要求创建一个广泛且多维度的训练数据库,该库囊括各类负面示例,涵盖从仇恨言论至歧视表述的广阔范畴。经此训练,生成模型得以深刻理解不良内容的内在逻辑与特征标识,进而在内容创生阶段预置一道智能屏障,显著降低违规内容的生成概率。其次,构建一个动态更新的黑名单机制,作为不良内容管理的中枢环节。这一机制依托于一个详尽且分类精细的数据库,其中收纳了不良内容的典型标识符,包括特定敏感词汇、构造特殊的词组乃至句式结构等。通过生成过程前的即时比对与筛查步骤,确保了生成内容与黑名单条目的严格隔离,从而在源头上阻断不良信息的流通。再者,于模型训练初期嵌入针对不良内容的约束性条件与细致标签,是提升内容生成质量的关键。通过人工审慎标注的数据集,甄选正面案例作为监督学习的基石,并巧妙结合无监督学习策略,以增强模型对适宜内容的偏好度。最后,构建一个闭环的用户反馈与内容优化机制。该机制应综合人工审核的专业洞察与自动化系统的高效处理能力,及时响应用户的反馈信息,尤其是针对举报与投诉内容的迅速处置。通过对用户反馈的深入分析,不断调整模型参数与优化生成策略,确保生成内容与社会伦理、法律规范保持高度一致,从而在技术演进中稳固地把握住法律与伦理的双重标尺。
另一方面,建立一套规范化的技术准则体系,引导生成式AI的健康发展,确保其输出内容遵循公共道德秩序及法律法规。鉴于生成式AI不良内容风险跨越伦理、法律与社会等多个向度,全球范围内统一技术标准的出台,既是技术治理的必然趋势,也有利于为科研人员与行业实践者提供行动指南。具体而言,此标准化进程应聚焦于以下三个层面:第一,国际权威机构如国际标准化组织(ISO)与国际电工委员会(IEC)应携手制定出具体且全面的技术标准框架,诸如在IEC 42001《信息技术–人工智能– 管理系统》(发布于2023年12月18日)中所明确提出的,标准应细密覆盖用户隐私保护、个人数据安全、算法透明度与可追溯性原则,以及防范技术滥用与恶意操作等具体条款,进而为生成式AI的研发设置必要的伦理与法律边界,促进全球技术生态的规范化与协作。第二,技术标准的实用性和操作性是确保其生命力的关键。通过编制详尽的操作手册与实例示范,为业界提供具体、可执行的行动指南,是将抽象标准转化为实际操作的桥梁。操作手册应清晰界定技术实施的程序与基本原则,确保各项标准的可执行性;而示范案例则需直观展现标准应用的场景与成效,增进用户对标准精神的理解与采纳,从而推动技术标准从理论走向实践。第三,鉴于生成式AI以惊人的速度迭代演进,如ChatGPT系列从3.5版本迅速升级至4.0版本乃至计划中的5.0版本,技术标准体系亦须展现出足够的灵活性与前瞻性,定期进行评估、修订与更新。这种“伴随式”更新策略,有助于确保技术标准既能及时吸纳最新研究成果,又能有效应对新兴风险,持续保障生成内容的品质与合法性,促进生成式AI的稳健前行与社会福祉的最大化。
2. 法律层面
除了技术治理方式之外,还需加强立法与监管手段,以严格控制不良内容生成风险。当前,我国已在《互联网信息服务深度合成管理规定》第6、7条等规定中,为强化不良内容生成风险的管理与治理提供了适用规则。《暂行办法》第4条、7条、19条等规定,亦对生成内容的准确性、合法性与“违规者责任”作出了清晰的界定。然而,现行法律规范仍存在一些局限之处:一方面,由于生成式AI“三阶段风险”的复杂性和隐蔽性,监管机构难以适用上述规则,及时发现和遏制不良内容生成风险。另一方面,针对不良内容生成风险的处罚措施相对较为单一,主要集中在行政处罚领域,如罚款和停业整顿等方式。但若发生恶意传播不良信息、侵犯他人隐私等严重违规行为,上述处罚方式明显不够严厉,不符合“罪责相适应”原则。由此,我国应进一步完善相关法律法规。首先,监管机构需要与技术界加强合作,共同研究生成式AI的发展趋势和可能带来的数据风险,并及时制定相应的监管措施。技术界可以提供有关技术的前沿信息和专业知识,以便于监管机构能够更加全面地了解技术的特质和潜在问题,从而更加有效、精准地制定相应的政策和法规。其次,应当加强生成式AI服务提供者的培训和管理,增强其法律意识和职业道德水平。这涉及对从业人员进行专业知识和伦理道德方面的培训,使其具备应对技术风险和法律责任的能力。同时,还需要建立健全的从业资格认证制度和监督机制,保证从业人员的合规操作和行为规范。再者,还应加大对相关违法行为的惩罚力度。通过引入刑事处罚等手段,加大对不良内容生成风险的打击力度。这可以通过制定明确的法律规定,确定生成式AI的合法使用范围和底线,并设立相应的执法机构,强化对违法行为的监管和处罚,以维护社会公共利益和个人权益。此外,我国还应积极与国际社会开展合作,借鉴国际已有经验,共同推进生成式AI的安全发展与管理。例如,参考欧盟《人工智能法案》做法,该法案的中心方法论是根据AI对社会造成危害的能力,遵循“基于风险”(risk-based)的方法来监管人工智能:风险越高,规则越严。这亦与敏捷治理的意涵相契合,可为我国构建本土化的立法与监管手段提供法治借鉴。
四、结 语
如今,生成式AI的迅猛发展给既有的法律规范体系带来了前所未有的挑战,正如查尔斯·狄更斯在《双城记》中所言:“这是希望的春天,也是绝望的冬天。”易言之,生成式AI的双刃剑特性,既昭示着创新与进步的无限可能,也预示着潜在的风险与挑战。如前所述,生成式AI的演进逻辑根植于算法的精密设计,然而其潜能的充分释放依赖于在海量、高质数据集上的深度学习与持续优化,此过程驱动了大型语言模型的迭代飞跃。而面对生成式AI的“三阶段风险”,传统的回应型治理与集中式治理均暴露出其局限性,难以满足复杂多变的治理需求。由此,“敏捷治理”应运而生,倡导一种灵活、多元与包容的治理哲学,意在重塑数据安全的防御体系,确保生成式AI应用的安全与合规。习近平总书记指出:“中国立足新发展阶段,要坚决贯彻新发展理念,加快构建新发展格局,持续推动高质量发展。”在此宏伟蓝图下,构建生成式AI数据风险治理的新模式,需紧密贴合市场动态与国家实际情况,以敏捷治理为战略核心,搭建起一个立体化、高效能的数据安全治理体系。同时,还应秉持探索精神,在数据治理的广袤领域内不断深耕,致力于探索数据伦理与法律治理的深度融合路径,以制定出一套具有中国特色的数据安全治理方案,顺应乃至引领全球新一轮数字经济的高质量发展。


往期目录





关于本刊


《上海政法学院学报》创刊于1986年,原名《法治论丛》(2003年更名为《上海政法学院学报》)。《上海政法学院学报》是我国最早以“法治”命名的法学专业学术期刊之一。

我们立足一流期刊建设目标,坚持 “高质量”“特色化”“专题化”办刊思路,在法学期刊建设上努力探索,学术影响力稳步提升。据中国知网年报显示,《上海政法学院学报》(法治论丛)“复合影响因子”从2022年的3.19提高到2023年的5.26,“综合影响因子”从2022年的1.50提高到2023年的2.97,CI指数排名也从2022年的第33位提升到2023年的30位。此外,据中南财经政法大学2023年信息检索报告统计,《上海政法学院学报》共有42篇次(2022年31篇次)被《新华文摘》《中国社会科学文摘》《高等学校文科学术文摘》《社会科学文摘》和“人大复印资料”等二次文献全文转载或论点摘编,在全国法律类院校学报排名第4位(2022年排第7位)。

我们以“问题意识”为导向,以做好选题策划为根本,在持续推进“党内法规”“数字经济法治”“国家安全法治”等特色栏目建设的基础上,继续追踪学术前沿热点,新增设了“新兴权利法律问题研究”“经典译介”和“初创学者佳作”等专栏。2024年,本刊将新开设“交叉学科研究”“涉外法治研究”专栏及“民法典合同编解释”“新公司法解读”专题,持续对相关领域重大问题进行深入探讨。

我们将以开放姿态拥抱新技术。全面升级网站建设,完善投审稿系统,实现全流程数字化出版;提升微信公众号运营策略,同步推出作者音频视频解读,开通视频号;积极完善网络首发,同步上传作者音频视频,增强学术出版。

我们诚挚地欢迎广大海内外科研工作者关注和支持上政学报并惠赐大作,也欢迎各界朋友积极建言献策、批评指正,以期共同办好《上海政法学院学报》(法治论丛)。来稿请通过《上海政法学院学报》编辑部网站(http://www.shupl.edu.cn/xbbjb/)投审稿系统进行投稿。本刊对来稿严格遵守三审(二审外审)定稿制度,以确保稿件选用公开公平公正。


编 辑:汤仙月

审 核:康敬奎


以法为基,寻社会治理之策

以文为器,求兴国安邦之道


投稿邮箱:xuebao@shupl.edu.cn

微信公众号:law-review1986

网址:http://www.shupl.edu.cn/html/xbbjb

电话:021-39227617  39227619



更多内容请点击下方“阅读原文”进入学报官网查看

 最新文章