徐磊 | 发展与安全并重:生成式人工智能风险的包容审慎监管

学术   2024-09-14 11:31   四川  

点击上方蓝字·关注我们







文章来源:《理论与改革》2024年第4期

徐磊法学博士,南京农业大学人文与社会发展学院讲师,曾主持和参与省部级项目多项,出版专著2本,译著1本,在核心期刊发表论文16篇,近三年发表的论文下载量一万余次,主要研究方向为网络与信息法学、人工智能治理。

摘要:生成式人工智能伴随着难以预知的各种风险和复杂挑战。对生成式人工智能进行监管,不仅有助于推动生成式人工智能的规范应用和健康发展,而且有助于保护个人合法权益、维护社会公共利益以及捍卫国家安全稳定。生成式人工智能的既有监管模式面临着监管概念失准、监管规则滞后、监管信息困境、监管技术短板等问题,而包容审慎监管能够在很大程度上消解这些难题。包容审慎监管以推动生成式人工智能的创新发展为逻辑起点,以防范生成式人工智能的各种风险为框架核心,以确保生成式人工智能的安全可靠为实现路径。为了实现包容审慎监管,促进生成式人工智能造福于人类,应当通过风险管理机制防控生成式人工智能安全风险,依靠试验机制推动生成式人工智能的可靠可信,建立容错机制激励生成式人工智能的创新发展,完善参与机制提升生成式人工智能的监管理性,强化监督机制确保生成式人工智能的规范监管。


关键词:数智时代;生成式人工智能;包容审慎监管;风险管理;监管沙盒;容错机制




一、问题的提出


从1956年达特茅斯会议提出人工智能的概念开始,到2022年OpenAI公司部署ChatGPT模型为止,在过去的半个多世纪里,人类对于人工智能技术的探索从未停止。人工智能技术的发展在饱经风霜后,终于迎来了阳光明媚的春天,而生成式人工智能技术则是当前最为耀眼的那束光。生成式人工智能技术建立在大模型的基础之上,通过大规模数据集的训练后,能够生成文本、图片、音视频等多种内容。与以往的人工智能技术相比,生成式人工智能技术所生成的内容,在质量、效率以及多样性等方面,已经能够基本满足工作生活的现实需求。社会各界对生成式人工智能技术寄予厚望,期盼其能够推动新一轮的科技革命和产业变革。然而,生成式人工智能技术也给人类社会带来了难以预知的各种风险和复杂挑战。对于生成式人工智能进行监管,既是生成式人工智能规范应用和健康发展的内在需要,也是顺应数字经济快速发展的必然要求,更是保护个人合法权益、维护社会公共利益、捍卫国家安全稳定的重要基础。


国内外学者围绕生成式人工智能的监管问题展开研究,研究成果主要集中于生成式人工智能的变革影响、模型算法、生成内容、安全风险、监管模式、治理路径等。亨利·基辛格、丹尼尔·胡滕洛赫尔、埃里克·施密特指出:“人工智能革命发生之迅猛,将超过大多数人的预期。在道德上、哲学上、心理上、实践上,可以说在各个方面,我们均发现自己正处于一个新时代的悬崖边,身后已无路可退。我们必须动用自己最根本的素养和资源,比如理性、信仰、传统和技术,来调整我们与现实的关系,从而让现实仍是人类的现实。”“当前,生成式人工智能亟需法律规制的安全风险分别是准备阶段的数据安全风险、运算阶段的算法偏见风险以及生成阶段的知识产权风险。”“应当构建‘基础模型—专业模型—服务应用’的分层治理体系,在不同的层次适配不同的规制思路与工具。在基础模型层以发展为导向,将其作为数字社会新型基础设施设置法律制度;在专业模型层以审慎包容为理念,进行分级分类并设置合理避风港规则;在服务应用层实施敏捷治理,建立合理容错制度。”“在全球人工智能治理的主流范式中,欧盟形成基于风险的治理范式,美国采用基于应用的治理范式,我国构建基于主体的治理范式。在人工智能技术范式变革之际,应以监管权的开放协同、监管方式的多元融合、监管措施的兼容一致为特征,推动监管范式的全面革新。”刘权提出:“包容审慎监管旨在追求效率与安全的动态平衡,其要求政府给予新业态必要的发展时间与试错空间,并根据公共风险的大小进行适时适度干预,是有利于破解传统监管困局的新型监管模式。”卢超指出:“面对科技发展与新经济业态的不确定性,包容审慎监管理念标志着现代行政法治的动态反思与演化趋势。包容审慎带有实质法治色彩的规制设计理念,有效运行不仅需要较为成熟的行政法治框架予以支撑,更需要现代行政国家的基础设施与行政能力予以辅助。”谢新水认为:“科学、有效监管人工智能内容生产是高难度、复杂性行动,政府、平台、用户和社会等多元主体要坚持包容审慎的监管原则,从而最大限度地促进社会发展、社会公正、社会透明和社会责任落实。”


总体来看,上述学术研究成果反映了学界对于生成式人工智能监管问题研究的理论面向、实践维度以及学术景观,但从发展的角度来看,仍有继续研究的空间。第一,过去学者们主要围绕金融科技、网约车、平台经济、营商环境等主题展开对包容审慎监管的分析,罕有学者对生成式人工智能的包容审慎监管进行论证。第二,随着《生成式人工智能服务管理暂行办法》的颁布,对生成式人工智能进行监管呈现出新的面貌,有必要对生成式人工智能包容审慎监管进行体系性地研究。第三,在分析包容审慎监管体系时,虽然有学者已对监管体制机制进行了研究,但是实践问题的复杂性和多样性使得完善对策仍有待进一步拓展。习近平指出:“人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的‘头雁’效应。要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。”有鉴于此,本文在对生成式人工智能既有监管模式进行分析的基础上,对生成式人工智能包容审慎监管的内在逻辑进行阐释,最后提出生成式人工智能包容审慎监管的实现路径。


二、生成式人工智能对政府监管提出的挑战


随着生成式人工智能的快速发展与广泛应用,生成式人工智能带来的潜在风险也日益凸显。过去,政府主要通过制定法律法规,明确企业应当遵守的行为规范。这些法律法规为企业提供了行动指南,也为企业划定了行为红线。政府往往能够获得相对充分的信息资源。这些信息不仅有助于政府了解企业的经营状况和市场环境,而且为政府制定法律法规和实施监管提供了有力的支持。对于涉嫌违法违规的企业,监管部门则通过实施监督检查,发现和处理涉事企业存在的问题。然而,在数智时代,既有的监管模式面临着诸多的挑战。


(一)监管概念的失准


在监管理论研究领域,菲利普·塞尔兹尼克(Philip Selznick)提出的一个观点经常被引用。他认为监管是“公共机构针对社会共同体认为重要的活动所施加的持续且集中的控制”。国内学者王俊豪认为:“政府监管是具有法律地位的、相对独立的政府机构,依照一定的法规对被监管者所采取的一系列行政管理与监督行为。”既有监管概念在面对复杂多变的生成式人工智能时往往左支右绌,监管的实际效果大打折扣。其一,既有监管概念以行为监管为核心,主要关注科技企业创新行为的规范性和安全性。然而,生成式人工智能技术的复杂性和应用的广泛性给行为监管带来了巨大的考验。技术的复杂性主要体现在尖端的模型算法和海量的数据信息上,这使得监管部门难以深入洞察科技企业创新行为及其潜在风险。生成式人工智能应用的广泛性要求监管部门应当具备跨领域的知识和能力,但是现实中监管部门往往并不具备这种能力,由此导致监管存在漏洞。其二,既有监管概念采用“命令—控制”模式,该模式要求立法机关事先制定明确具体的法律法规,监管部门据此严格执法和公正处罚。在“命令—控制”模式中,“命令”要求所有企业按照事先制定的统一的法律法规行事,法律法规本身可能存在滞后性和缺乏针对性;“控制”在很大程度上取决于监管部门的监管能力和执法力度等,而且“控制”可能加剧监管部门与科技企业之间的对立对抗。近年来,生成式人工智能在模型、算法、数据、算力等方面取得了显著的突破。各大科技巨头纷纷投入巨资进行研发和推广,推动生成式人工智能的科技创新和应用拓展。“命令—控制”模式在面对生成式人工智能的创新发展时,可能无法实现预期的监管目标。其三,既有监管概念缺乏激励相容的合作监管理念。激励相容主要是通过正向激励来引导被监管者主动合规发展的一种有效方式。然而,既有监管更侧重于规则的制定和执行,而较少考虑如何通过激励机制来引导科技企业的创新行为。在生成式人工智能等快速发展领域,面临巨大竞争压力的一些科技企业可能就会削减甚至放弃自己在产品研发、制造及市场服务等方面如何控制风险的投入。如果监管措施不能与科技企业控制风险的目标相协调并提供有效的合规激励,那么科技企业可能会选择规避监管,单纯去追求更高的经营利润和市场份额,从而使得有“风险瑕疵”的人工智能产品或服务流向市场。


(二)监管规则的滞后


2024年5月21日,欧盟理事会正式批准了《人工智能法案》,这对于欧盟人工智能监管产生了深远的影响。针对人工智能,我国尚未颁布专门的法律,而是由《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《中华人民共和国科学技术进步法》《互联网信息服务深度合成管理规定》等法律法规构成监管规则体系。生成式人工智能的迅猛发展,使得既有监管规则难以应对新生的问题和挑战,导致生成式人工智能在某种程度上陷入了一种监管真空或者说野蛮增长的境地。首先,监管规则在科技创新方面表现出明显的迟滞。在生成式人工智能领域,技术进步快、创新周期短、应用场景多,这就要求监管措施能够迅速响应这些变化并及时调整。然而,由于大部分监管规则是基于先前的技术和场景制定的,所以监管规则往往无法适应新技术、新应用以及新场景。这些规则不仅可能会阻碍技术的创新发展,而且可能会引发一系列的监管难题。例如,当生成式人工智能在医疗辅助诊断过程中出现误诊或医疗事故时,如何界定责任归属成为现实难题。其次,监管规则的滞后性还体现在其难以适应生成式人工智能的跨界融合特性。生成式人工智能能够跨越多个领域和行业,打破了传统的领域行业的界限。然而,现有的监管规则主要基于传统的行业或领域划分来制定,由此导致监管规则无法满足复杂多变的监管需求,监管部门在面对生成式人工智能时难以形成监管合力。再次,现有监管规则在防范生成式人工智能潜在风险方面也存在着不足。生成式人工智能在推动经济社会发展的同时,伴随着诸如数据隐私泄露、模型算法歧视、虚假信息传播等风险。由于现有监管规则对这些风险缺乏有效的应对措施,导致风险在发生时,往往无法及时进行干预和管理。最后,监管规则制定过程相对繁琐和耗时。生成式人工智能创新发展的速度远超监管规则的制定周期。监管规则需要经过复杂的调研、论证和制定程序才能出台。这一过程难以与人工智能创新发展保持同步。这种时间上的错配,使得刚性的监管规则在出台时可能就已经落后于技术服务的实际发展状况,从而无法满足监管需求。


(三)监管信息的困境


生成式人工智能监管信息困境主要在于信息不对称和信息碎片化。这不仅导致监管部门难以获取全面、准确的信息以做出精准的决策,而且还增加了监管对象提供误导性信息以规避监管的风险。第一,监管时机的选择因信息不对称而变得极为棘手。过早地实施监管可能会抑制生成式人工智能的创新活力,尤其是在生成式人工智能发展初期,当技术和应用尚处于探索阶段时,过于严格的监管可能会束缚住生成式人工智能技术和应用的手脚,导致技术和应用的潜力无法得到充分发挥。过早地实施监管也会引发社会的不满,对形成良好的监管环境造成不利影响。然而,监管的滞后同样也会带来问题。如果监管部门迟迟不介入,生成式人工智能的发展可能会陷入无序状态,各种风险也会随之集聚和爆发。更为严重的是,缺乏监管可能会导致生成式人工智能的发展偏离正轨,甚至引发经济问题和社会动荡。第二,信息不对称可能导致监管部门在决策过程中面临信息碎片化乃至错误信息的风险。由于生成式人工智能技术研发的复杂性和应用场景的多样性,监管部门很难从单一渠道获取全面、准确的信息。这种信息碎片化使得监管部门在评估生成式人工智能的实际运行状况时如同雾里看花,难以做出准确的判断。第三,科技企业的规避行为可能会加剧信息不对称问题。为了逃避监管,生成式人工智能相关企业可能会采取一定的手段来隐瞒关键数据或提供虚假信息,掩盖生成式人工智能存在的潜在风险和问题,这使得监管部门无法真实了解科技企业的实际情况。


(四)监管技术的短板


在应对生成式人工智能所带来的各种风险时,监管技术上的短板已然浮现,成为提升监管效能的绊脚石。首先,现有的监管工具难以胜任生成式人工智能系统性能和安全风险的评估要求。生成式人工智能建立在复杂的模型算法和大规模数据集训练的基础之上,若要深入洞悉生成式人工智能的工作机理、数据信息源流以及可能产生的风险,监管部门必须配备相应的专业化工具。但现实情况是,监管部门往往缺乏精确、高效的监管工具,这使得监管部门难以对生成式人工智能系统进行有效地监督。其次,模型算法审计技术的缺位进一步加剧了监管的困境。模型算法作为生成式人工智能系统的核心,其公正性、透明度、可解释性对于建立系统的信任度和安全性至关重要。然而,由于模型算法的复杂性和不透明性,监管部门往往缺乏有效手段,无法深入探究模型算法内部的逻辑和可能存在的偏见。最后,监管部门在实时监控和风险管理能力方面的不足,也凸显其在技术支持上的短板。鉴于生成式人工智能系统风险的突发性和不确定性,监管部门必须具备实时监控和及时响应能力。但遗憾的是,当前监管部门在这方面的技术支持相对薄弱,难以实现对生成式人工智能系统的实时、全面监控。


三、生成式人工智能包容审慎监管的内在逻辑


当前,以生成式人工智能为代表的新一轮科技革命加速推进,新技术、新产品、新服务不断涌现,在对个人工作生活和经济社会发展产生深远影响的同时,也给政府监管带来了巨大的挑战。由于既有监管措施面临前述难题,而包容审慎监管能够在很大程度上消解这些难题,所以包容审慎监管逐渐受到理论界的高度关注和实务界的大力推崇。早在2017年,国务院办公厅发布《关于创新管理优化服务培育壮大经济发展新动能加快新旧动能接续转换的意见》,首次提出“探索动态包容审慎监管制度”的构想。2019年国务院颁布的《优化营商环境条例》第五十五条明确规定,政府及其有关部门对新技术、新产业、新业态、新模式等实行包容审慎监管时应当遵循的基本要求。2021年审议通过的《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》第二十二章第三节“推进监管能力现代化”中指出,“对新产业新业态实施包容审慎监管”。同年,修订后的《中华人民共和国科学技术进步法》第三十五条强调包容审慎监管对于科技创新的重要作用。2023年7月,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局七部门联合发布《生成式人工智能服务管理暂行办法》(以下简称《办法》)。该《办法》第三条明确提出,“对生成式人工智能服务实行包容审慎监管”。此外,各地方政府也在积极贯彻落实包容审慎监管。例如,《吉林省大数据条例》《北京市优化营商环境条例》《江苏省数字经济促进条例》《重庆市科技创新促进条例》等地方立法也对包容审慎监管作出了明确规定。


(一)包容审慎监管的动力:生成式人工智能的创新发展


第一,生成式人工智能可以推动信息内容创作。生成式人工智能在信息内容生成和传播方面展现出前所未有的能力,能够在更广的范围内,提供多种形式的信息服务;能够生成文本、图片、音视频等信息内容,并且通过网络即时进行传播。这意味着,无论是地理位置偏远的地区,还是语言文化特殊的群体,都能更为轻松地获取到高质量的信息服务,由此提高了信息的可触达性。而且,生成式人工智能能够涉足传统信息服务机构专属领域,提供与之类似的业务。例如,“生成式人工智能将通过其强大的内容生成能力推动新闻内容生产范式转换,倒逼从业者重构职业形态,迭代升级新闻传播业态,生成式人工智能正在给新闻业带来前所未有的冲击”。“生成式人工智能可以推动教学模式从‘师—生’二元结构转向‘师—机—生’三元结构,促进教学内容从人工生产转向智能生产”。更为重要的是,生成式人工智能的发展在一定程度上导致信息内容与信息机构相分离。在传统信息生态系统中,信息内容的生产和传播往往依赖于特定的机构或组织。随着生成式人工智能的普及,个人也能利用这些技术生产高质量的信息内容,并通过社交媒体等渠道广泛传播。这种去中心化的信息传播模式削弱了传统信息服务机构的垄断地位,使得信息内容更加开放和多样。


第二,生成式人工智能可以提高信息服务效率。生成式人工智能以其独特的生成优势和强大的多模态功能,提升了信息服务的效率。过去,高质量的信息服务往往受限于工作时间和人力资源,难以做到24小时不间断服务。生成式人工智能可以全天候、不间断地为用户提供信息服务。而且,生成式人工智能可以根据用户的需求和偏好进行实时调整,提供更加个性化的信息服务。此外,生成式人工智能能够在极短的时间内,为用户提供高质量的信息内容。传统的信息生产方式需要人工撰写、编辑和审核,耗时较长且难以保证信息的实时性。而生成式人工智能可以生成大量的信息内容,包括新闻报道、市场分析、影视创作等。


第三,生成式人工智能可以促进信息服务市场竞争。传统信息服务市场往往呈现出一种相对固定且封闭的状态,这在一定程度上保障了信息的可靠性和可信性,但是同时也带来了一系列的问题。传统信息服务市场通常有着较高的市场准入门槛,这些门槛可能来自政策法规的限制、技术标准的要求、资本投入的需求等多个方面。高门槛意味着新进入者需要克服更多的障碍,才能参与到市场竞争中来,这无疑限制了市场的竞争程度。在缺乏有效竞争的环境下,信息服务提供者往往缺乏提升服务水平、满足客户需求的动力,导致市场整体效率低下。此外,传统信息服务市场的行业和部门界限较为明晰。这种界限在一定程度上保障了各专业领域的独立性和专业性,但也限制了不同领域之间的交流和合作。在网络化、信息化、智能化日益发展的今天,用户对于信息服务的需求越来越多样化、个性化,信息服务往往难以满足用户的实际需求。生成式人工智能的发展,为传统信息服务市场带来了新的机遇。生成式人工智能具有跨界、融合的特性,能够打破传统市场的固有界限,推动市场的变革和创新。一方面,生成式人工智能的应用模糊了不同信息服务部门之间的界限,这种跨界合作不仅提高了服务效率,而且降低了服务成本,使得使用者能够享受到更为优质的信息服务;另一方面,生成式人工智能的发展在一定程度上模糊了信息服务与非信息服务的界限,这种融合丰富了信息服务的内涵和外延,也给传统信息服务机构带来了新的竞争和挑战。


(二)包容审慎监管的对象:生成式人工智能的创新风险


第一,生成式人工智能伴随着多重风险。生成式人工智能的风险积累是一个渐进且多维的过程,这涉及技术研发的复杂性、服务领域的广泛性以及使用的不确定性等多个层面。在技术层面,尽管生成式人工智能已经在多个领域取得了令人瞩目的成果,但是其工作机理仍然存在诸多未知之处。模型算法的不透明性使得社会各界难以掌握和理解其内部原理。生成式人工智能技术及服务本身的复杂性,也使得普通用户甚至监管部门难以及时、有效地察觉到安全风险的发生。更为严重的是,生成式人工智能还能涌现出新的能力,这在增加潜在风险的同时,使得风险更加难以预测和控制。在数据层面,生成式人工智能对大规模数据的依赖,引发了新的风险。在数据的收集、存储和使用过程中,数据泄露和被滥用的风险显著上升,一旦敏感数据被非法获取或用于不当目的,将对个人权益和企业安全构成严重威胁。在内容层面,生成式人工智能能够生成高质量的文本、图片以及音视频等内容,这使得虚假信息的制作与传播变得更加容易和难以辨别。生成式人工智能可能被用于编制虚假新闻、误导社会公众、实施网络欺诈等,从而对个人权益和社会稳定造成严重危害。在版权层面,一方面,人工智能生成的作品可能涉及原创作者的知识产权保护问题;另一方面,如何保护人工智能生成的内容不被他人滥用,也是一个亟待解决的问题。这些问题不仅需要人工智能头部企业的努力,而且需要社会各界的共同关注和参与。


第二,生成式人工智能风险的集聚与叠加。在生成式人工智能领域,各种风险呈现出一种交织性的特质,即各种风险不是孤立存在的,而是相互影响、相互叠加的。例如,训练数据受到污染会直接影响模型的训练结果,导致生成内容失真失范。生成式人工智能内部机理的不透明,使得外界难以精确掌控哪些数据被用于模型训练,以及模型如何处理这些数据,这反过来会增加数据安全风险。与此同时,生成式人工智能在应用领域的风险也呈现出相互关联的特点。以社交媒体为例,生成式人工智能可能被用于制造和传播虚假信息,或者实施网络欺诈。这些行为不仅扰乱社交媒体平台的正常秩序,而且可能会对经济社会等领域产生严重的负面影响。随着全球化的推进,生成式人工智能风险还呈现出全球化的趋势。不同国家和地区的技术发展不再是孤立的事件,而是相互关联的。一个国家的生成式人工智能技术的进步可能对其他国家产生直接或间接的影响,其他国家的技术发展也可能对该国产生反馈效应。这种全球化的趋势使得生成式人工智能风险变得更加难以预测和防控。除了生成式人工智能风险本身以外,生成式人工智能的风险还涉及多个利益攸关方的复杂互动。生成式人工智能的研发者、使用者、监管部门等在风险的形成和蔓延过程中扮演着重要角色。例如,开发者可能为了追求技术性能而忽视潜在的安全风险,使用者则可能因对技术的不了解而误用或滥用,监管部门则面临着如何制定有效的政策来规范和引导技术发展。这些人为因素的相互作用,进一步增加了风险的复杂性和不确定性。


第三,生成式人工智能的事件冲击、效应放大以及反馈循环。在风险累积与相互关联达到一个临界点的情境下,突发事件可能对生成式人工智能系统构成冲击。这些突发事件,无论是技术故障、政策变动,还是社会事件,均带有“黑天鹅”的性质,从而增加了系统的不确定性和脆弱性。具体而言,技术故障可能会引发连锁反应,导致系统崩溃、关键数据丢失,进而对生成式人工智能系统的稳定运行造成直接破坏。而政策的突然变动可能会颠覆整个行业的既有秩序,使得企业不得不重新评估其技术路线和商业模式,甚至面临被迫转型的风险。至于社会事件,尤其是那些引发广泛关注的事件,可能会激起公众对生成式人工智能技术的疑虑和反对,这种社会舆论压力可能会对生成式人工智能产生长远的负面影响。当这些突发事件作用于生成式人工智能系统时,其所引发的后果可能远超初始损害,甚至触发一系列复杂的反馈循环和放大效应,导致危机进一步恶化。因此,我们需要关注生成式人工智能的各种风险,及时采取有效措施,防止风险的扩大和衍变。


(三)包容审慎监管的目标:生成式人工智能的创新安全


包容审慎监管要求监管部门在实施监管时,既要为生成式人工智能提供充分的发展空间和容错环境,又要对潜在风险保持高度警惕,并且能够及时采取有效的防范措施。包容审慎监管不仅彰显了监管部门对生成式人工智能发展规律的深刻洞察,而且体现了监管部门在应对生成式人工智能各种风险时的冷静与理智。包容审慎监管强调监管的灵活性和适应性,要求监管部门根据生成式人工智能发展的实际情况不断调整和优化监管策略。这意味着监管措施不能一成不变,而是必须随着时代的发展和技术的进步动态演进。此外,包容审慎监管还注重监管的跨界融合和跨域发展,强调政府、企业和社会公众等多元主体的协同参与。包容审慎监管的最大优势在于,其能够更好地应对科技发展带来的复杂挑战,推动科技与社会的和谐共生和持续发展。


包容审慎监管的关键是在包容与审慎之间寻求动态平衡。这种动态平衡体现在对新事物、新技术和新服务持有一种既包容又谨慎的态度。在数智时代,科技创新在推动经济社会发展和人类文明进步的同时,附随着难以预知的各种风险和复杂挑战。因此,包容成为监管的核心原则之一,包容允许科技创新在风险可控的范围内自由发展,而不是一开始就受到严格的限制。这为科技创新创造了一个相对宽松、鼓励探索的外部环境,从而激发整个社会的创造力。审慎原则是为了应对创新风险而存在的,其要求监管部门在推动科技创新的同时,始终保持对潜在创新风险的警惕,建立健全风险管理机制等。审慎监管的目标应当是确保科技创新不会引发科技失控或严重的经济社会问题。在生成式人工智能领域,包容审慎监管的重要性尤为明显。传统的监管措施可能会阻碍科技创新,而包容审慎监管则为科技创新提供了在合规框架内自由探索的空间。包容审慎监管不仅加速了生成式人工智能创新发展的步伐,而且可以确保生成式人工智能在风险防控下仍然能够健康发展。概言之,对新技术、新服务、新业态、新模式的包容态度,可以激发科技创新活力,而对风险的严格把控,又能够确保科技创新增进人类共同福祉和推动人类文明进步。包容审慎监管已经在实践领域取得了一定的成效。以互联网金融、新型基础设施建设等为例,这些领域在包容审慎监管的引导下实现了快速健康发展,并且有效地控制了系统性风险。因此,我们有理由相信,在生成式人工智能的创新发展中,包容审慎监管将继续发挥其不可替代的作用。


包容审慎监管的落脚点在于监管,其内核是在技术服务安全与有为有效政府之间实现优化组合。包容审慎监管强调,监管部门在监管过程中应当展现出高度的包容和审慎,更好地引导和推动技术服务发展。包容监管体现在监管部门充分尊重技术服务主体的自主性和创新性。监管部门应当避免过度干预技术服务运行,为技术服务提供足够的自由发展和创新空间。包容监管有助于激发技术服务活力、促进技术服务创新,并降低技术服务主体的运营成本和风险。包容监管还有助于推动技术服务向更加公平、高效的方向发展。同时,审慎监管还要求监管部门在必要时进行适时且适度的干预。与技术服务主体追求利益最大化的倾向不同,监管部门更注重保障技术服务的稳定和持续健康发展。当技术服务安全机制失灵或存在失灵风险时,监管部门应及时出手,通过审慎监管措施来纠正技术服务偏差。这种监管方式能够避免过度监管或监管不足的问题,确保技术服务在有序、稳定的环境中运行。包容和审慎在监管过程中相辅相成,二者的有机结合可以实现监管部门与技术服务主体之间的优化组合。这种优化组合不仅是对既有监管方式的优化和革新,而且是对监管权力规制的重新审视和定位。需要强调的是,包容审慎监管的实施需要监管部门具备高度的责任感和使命感。监管部门应当时刻关注技术服务动态,及时了解技术服务主体的需求和诉求,根据实际情况采取相应的监管措施。监管部门还应加强与技术服务主体之间的沟通和协作,共同推动技术服务的繁荣发展。包容审慎监管不仅能够提升监管部门的监管能力,而且能够进一步增强技术服务主体的创新动力。


四、生成式人工智能包容审慎监管的实现路径


生成式人工智能不仅在文本、图像、音频及视频等领域展现出强大的生成能力,而且在医疗、金融、教育和娱乐等行业也展现出广阔的应用前景。生成式人工智能甚至被视为通用人工智能地平线上的第一道曙光。与此同时,生成式人工智能也引发了一系列的风险,如数据信息泄露、模型算法歧视以及生成内容失范等。因此,我国亟需通过包容审慎监管来应对生成式人工智能创新发展过程中的各种挑战,确保生成式人工智能在风险可控的范围内安全发展,实现生成式人工智能高质量发展和高水平安全之间的良性互动。


(一)管理机制:防控生成式人工智能的安全风险


风险管理是指在实现监管目标的过程中,监管部门将生成式人工智能安全风险和创新发展可能产生的负面影响控制在可接受范围内的系统方法和过程。监管部门应当秉持发展与安全并重原则,以提升生成式人工智能的安全性、可靠性、可控性、公平性为目标,积极开展风险管理活动。风险管理机制为监管部门提供了前瞻性和动态性的监管工具,推动了监管方式的深刻转变。相较于传统的事后监管模式,即在安全事件发生后进行调查和处理,风险管理机制将监管重心前移,通过事前预防和事中控制有效降低风险发生概率。该机制能够识别和分析生成式人工智能存在的安全风险,为企业提供及时有效的风险预警和防范措施。这不仅能够减少安全事件的发生,而且能够降低安全事件对企业造成的负面影响。风险管理机制以风险的衡量与评价为关键,能够精准识别出高风险的领域和环节,使监管部门能够集中力量进行重点监管。这种有针对性的监管方式既提高了监管效率,又降低了监管成本。此外,风险管理机制还能为监管部门提供科学的决策依据,帮助其制定合理的监管策略和发展规划,从而推动生成式人工智能的健康发展。


风险评估意味着需要监管部门按照安全指标来衡量生成式人工智能风险的程度,以确定风险是否需要处理以及采取何种处理措施。鉴于中央网信办发布的《全球人工智能治理倡议》中强调“开展风险评估”,本文主要围绕风险评估展开对监管部门风险管理的分析:首先,应当优化风险评估内容。为了适应生成式人工智能风险评估的实际需要,监管部门应当建立健全综合评估模式。该模式主要包含多元化评估主体、多样性评估方法以及全面系统的评估标准等关键要素。多元化评估主体是指除了生成式人工智能技术专家外,还应当包括法律、伦理、社会等领域的专家学者;多样性评估方法意味着需要综合采用风险度评估法、检查表评估法、成本效益分析法等多种方法;而全面系统的评估指标则需要综合考虑生成式人工智能风险因素、损害程度以及损害频率等,分析风险影响并与安全指标进行比较,以确定风险等级。综合评估模式能够更全面、系统地评判生成式人工智能风险的程度,从而提高评估的科学性和公信力。其次,应当规范风险评估程序。这对于确保生成式人工智能风险评估工作的公正性和有效性具有重要意义。其中,确立风险评估专家委员会在风险评估程序中的核心地位,可以增强决策的科学性,为生成式人工智能的创新发展提供有力保障。再次,应当健全监管部门信息公开制度。加强风险评估信息公开,扩大信息公开的范围,不仅关系到生成式人工智能创新发展的可持续性,更直接影响到社会公众对生成式人工智能的信任度和接受度。为了确保社会公众对生成式人工智能安全风险评估过程和结果有深入且准确的理解,风险评估专家委员会应采取多重措施来增强透明度和互动性。例如,可以通过定期召开会议,及时汇总和分享最新的研究成果和评估进展;可以邀请相关利益方或公众参与会议;可以与公众进行互动,让更多的人了解到风险评估的进展和成果。最后,应当设置合理的责任条款。在风险评估领域,专家扮演着举足轻重的角色。他们凭借专业知识与经验,为决策层提供关键性的建议与判断。然而,在实践中,专家并非总是能够做到完全客观中立,他们可能会受到权力、利益等多种因素的影响。因此,为专家设置责任条款显得尤为必要。这不仅能确保专家在行使权利时更加审慎,也能在出现失误时,为相关方提供合理的追责依据。


(二)试验机制:推动生成式人工智能的可靠可信


传统监管模式主要是基于已知的风险和明确的规则构建的。然而,在面对生成式人工智能所伴随的风险和挑战时,传统监管模式则显得掣襟肘见。生成式人工智能的创新能力和迭代速度远超既有监管模式的覆盖范围,而且生成式人工智能不断催生新应用、新场景以及新风险,由此导致监管规则迅速落伍。更为棘手的是,生成式人工智能所具有的复杂性、黑箱性和智能性,使得事后惩戒在实践中困难重重。一旦发生安全事件,确定责任归属和采取惩戒措施往往成为一道难题。因此,监管部门必须转变监管思路,寻求更加灵活且适应性强的监管策略。


作为一种试验机制,监管沙盒为科技企业和监管部门提供了一个相对宽松且风险可控的“试验场”。在这样的“安全区域”内,新技术、新产品、新服务以及新商业模式等创新尝试得以自由进行,而不必担心一旦出现问题就会面临严厉的责任追究。自2015年英国金融行为监管局率先实施监管沙盒以来,该监管方式便受到了国际社会的广泛关注和应用。在中国,中国人民银行于2019年启动了金融科技创新监管试点工作,通过打造包容审慎的监管工具来支持金融科技的创新发展。除了金融科技领域外,监管沙盒还被成功应用到了其他多个领域。例如,2022年,由市场监管总局等五部门联合发布的《关于试行汽车安全沙盒监管制度的通告》。在生成式人工智能领域,监管沙盒同样展现出巨大潜力。欧盟《人工智能法案》在其第六章“支持创新的措施”中专门规定了人工智能监管沙盒。监管沙盒通过在开发和上市前阶段建立安全可控和动态监管的环境,在人工智能系统提供者或者潜在提供者与主管机关商定的特定沙盒计划下,在限定的时间内测试人工智能系统的性能、安全性及潜在影响等,然后再将这些人工智能系统投放市场或以其他方式投入使用。在监管沙盒中,人工智能系统提供者和潜在提供者应当采取安全保障措施,并且与监管机关进行合作,以充分降低在沙盒开发、测试和试验过程中可能出现的任何已识别的对安全、健康和基本权利的重大风险。监管沙盒不仅有助于激发科技创新活力,还能确保监管措施更加精准和有效,在降低监管成本和防范风险方面,也具有显著的优势。通过在小范围内进行试验,科技企业和监管部门可以在风险早期阶段及时发现和应对潜在问题,从而避免在大规模推广阶段造成难以挽回的损失。此外,监管沙盒还能为科技企业和监管部门积累宝贵的数据和经验,为未来通用人工智能监管提供有力的决策支持。但是,监管沙盒在鼓励创新和包容试错的同时,也面临着“监管俘获”等挑战。为了避免被监管企业影响监管决策情况的发生,可以引入第三方机构进行独立评估。这些机构能够更加客观地评估监管沙盒的实施效果、被监管企业的创新情况以及监管部门的履职情况,并且提出较为中肯的改进意见和建议,以此增强监管的透明度和公信力,促进监管体系的不断完善和进步。


试验机制不能纵容企业以试验之名触碰法律红线。为此,监管部门应当在鼓励科技创新的同时,确保科技企业严格遵守相关法律法规,实现合规创新。传统的“命令—控制”模式主要依赖威慑策略,通过严厉处罚来阻止企业违法违规行为。在这种模式下,监管部门与科技企业可能会陷入对抗状态,导致监管部门运动式监管,科技企业表面式合规。更为严重的是,由于信息不对称和执法资源不足等问题,许多违法违规行为难以被及时发现和惩处,这进一步削弱了既有监管方式的有效性。尤其是在数智时代,科技企业违法违规行为的隐蔽性增强,这给监管部门带来了前所未有的挑战。有鉴于此,监管部门需要转变监管思路,从违法惩戒转向守法激励。激励相容强调,监管部门不应仅从自身的监管目标出发来制定监管措施,而是需要更多地考虑科技企业的创新目标和现实需求。从监管部门的角度来看,监管是为了确保生成式人工智能朝着有利于人类文明进步的方向发展。然而,如果监管措施过于严苛或宽松,可能会对科技企业的创新发展造成不必要的干扰和阻碍,甚至可能引发社会公众的抵触和不满。从科技企业的角度来看,其经营目标通常是追求利润最大化。在这个过程中,科技企业可能会采取各种策略来降低成本、提高效率、扩大市场份额等。如果监管部门的监管措施与科技企业的经营目标相悖甚至完全对立,那么科技企业可能会选择规避监管,甚至从事违法违规活动。激励相容主张监管部门应充分考虑科技企业的发展目标和现实需求,通过构建正向激励机制来引导企业加强自我治理、自觉遵守法律法规,从而形成政府与企业共同控制风险的良性互动局面。这种正向激励机制可以包括税收优惠、政策扶持、市场准入便利等措施,旨在激发科技企业的积极性和创造力,使其在追求自身经营目标的同时,也能实现监管部门的监管目标。


(三)容错机制:激励生成式人工智能的创新发展


在生成式人工智能创新发展过程中,相关技术及服务主体可能会逾越法律的边界,进而侵害他人合法权益或者生成虚假有害内容等。同时,监管部门的监管活动也可能会偏离预期监管目标或者监管成效出现弊大于利等情况。在追究相关主体责任时,需要权衡各种因素。比如,任何责任的判定都不应脱离具体的事实和情节。在处理生成式人工智能相关企业违规案件时,需要考虑违规的性质、严重程度、持续时间等因素。又如,主观恶性也是一个不容忽视的考量因素,涉及行为主体的动机、意图以及对自身行为后果的认识等。对于那些明知故犯的主体,应当予以严厉的惩处,以彰显法律的威严;对于那些因疏忽或误解而违法的主体,则可以在责任追究时予以适当的宽宥,以体现法律的教化功能。


在强调责任追究的同时,我们还需要建立健全容错机制,为企业创新和监管部门履职提供必要的空间。容错机制可以鼓励企业勇于创新,同时保障监管部门在履行职责时的积极性。例如,根据欧盟《人工智能法案》第五十七条第十二款的规定,如果人工智能系统提供者和潜在提供者遵守沙盒计划和参与条款及条件,并善意遵循国家主管机关的指导,那么国家主管机关不得因其违反本法案而处以行政罚款。


在生成式人工智能创新演进过程中,科技企业违规行为呈现为多种形式。部分违规行为的主观恶性较小、社会危害性不大。例如,由于科技企业对于模型算法的理解不足,导致生成式人工智能生成了歧视性内容。创新活动本身就充满了不确定性和风险,如果过于严厉地追究科技企业的每一个失误或违规行为,那么科技企业在进行创新时就会背负沉重的心理负担和经济压力,从而可能会抑制科技创新活动。因此,一个相对包容的监管环境能够给予生成式人工智能相关企业更多的试错空间和学习机会。在这样的环境中,科技企业能够大胆尝试新的想法和技术,从而推动人工智能技术的快速发展。对于那些已经认识到自身存在违法违规行为,并且愿意积极改正的科技企业,监管部门可以责令其限期整改,并根据其改正情况,对其给予从轻、减轻或免除处罚。对于那些情节显著轻微的违法违规行为,监管部门可以直接免予处罚,给予科技企业一个改正错误的机会,同时也有助于维护社会稳定和经济发展。


尽管生成式人工智能具有巨大的发展潜力,但是在其创新发展过程中仍然会面临诸多风险。这些问题需要监管部门通过制定政策、提供支持、优化市场环境等方式来加以解决。唯有如此,才能确保人工智能技术能够持续、健康地发展下去。在推动生成式人工智能创新发展的过程中,监管部门需要全面考虑技术发展趋势、市场需求、社会影响等因素,以制定出科学、合理、可行的政策和措施。监管部门还需要具备强大的执行力,确保各项政策和措施能够得到有效落实。此外,监管部门需要根据实际情况灵活调整监管措施,在有效防范风险的同时,避免过度限制企业的创新活动。对于监管部门可能出现的决策失误,严加问责可能会使监管部门过于谨慎,不敢尝试新的监管方法。在生成式人工智能等快速发展领域,如果监管部门因为担心失误而受到严厉处罚,那么其可能会选择保守的监管策略,从而错过探索和实施更加有效监管措施的机会。而且,严加问责还可能影响监管部门的积极性和工作动力。因此,有必要建立针对监管部门的容错机制。这种机制可以允许监管部门在一定范围内犯错误,并从中吸取教训,不断完善自己的监管策略和方法。容错机制还可以为监管部门提供一定程度的保护和支持,营造出一个更加宽容、有利于创新的监管环境。


(四)参与机制:提升生成式人工智能的监管理性


监管决策是公共权力对特定领域或事项行使管理职能的行为,其本质在于妥善平衡公共利益与个人权益。因此,任何监管决策都必须建立在详实的信息和充分的论证基础之上,以此确保监管决策的科学性、合理性以及合法性。传统的决策模式在面对生成式人工智能时,面临着决策信息不全面、决策讨论封闭化等难题,导致决策结果偏颇,难以获得社会各界的支持和认可。为了有效应对这一挑战,在监管决策中加强参与成为了一种必然趋势。参与决策过程不仅意味着能够吸纳多元化的观点和信息,而且为所有受决策影响的利害关系人提供了一个论辩和交流的场所。参与机制能够融合来自各方的专业见解和实践经验,从而提升监管决策的科学性和精确性。同时,参与机制通过赋予利害关系人表达意见的机会,增强了监管决策的正当性和民主性基础。监管部门通过展示其如何在开放和透明的决策过程中平衡各方利益,能够赢得公众对监管活动的信任和支持。这种民主化的决策过程,有助于减少监管实施过程中的摩擦和阻力,确保监管措施得以顺畅执行。


对于参与机制而言,需要注意以下几个方面:首先,监管部门在作出监管决策时,不应仅依赖监管部门内部的专业知识和经验,而是需要积极邀请和吸纳外部利益攸关方的参与。通过行业组织、专业机构、科研机构、专家学者等参与,监管部门能够获取更广泛的信息和观点,从而作出更加科学、合理的监管决策。在欧盟《人工智能法案》中有多个条款规定,国家主管机关应当与欧盟层面及欧盟成员国层面有关的机关、机构、部门等进行合作,并且促进人工智能生态系统内外企业、组织、个人等参与。其次,监管部门应当主动公开监管决策的依据、过程、结果等信息,确保公众能够了解并监督监管决策。公开透明的核心在于保障公众的知情权,让公众能够了解监管决策的来龙去脉,从而增强公众对监管部门的信任。再次,监管部门在作出监管决策时,应当为公众提供表达意见和建议的渠道,并确保这些意见和建议能够得到及时、有效的回应和处理。公众的意见和建议能够被有效纳入监管决策过程,有助于提升决策的民主性和科学性。最后,监管部门与利益攸关方之间进行信息交流、意见交换和思想互动。通过充分沟通,监管部门能够吸纳利益攸关方的意见和建议,发现潜在的问题和风险,从而作出更加科学、合理的监管决策。这种沟通能够让利益攸关方了解监管部门的决策依据和考虑,减少决策过程中的阻力和冲突,增强决策的可接受性。


(五)监督机制:确保生成式人工智能的规范监管


生成式人工智能风险具有形式的复杂性、严重的危害性以及后果的扩散性等特征。为了防范生成式人工智能创新风险,立法机关应当制定明确具体的法律法规,而监管部门则负责严格执行相关法律法规。然而,由于立法过程的复杂性和滞后性,法律法规往往难以跟上生成式人工智能创新发展的步伐,导致出现法律缺位或模糊的情况。如果监管部门僵化地执行法律法规,可能会引发监管有失公允,进而侵蚀社会的整体正义。为此,必须赋予监管部门一定的裁量权,使得监管部门能够针对复杂多变的生成式人工智能作出灵活的判断,从而更加有效地维护社会秩序和公共利益。裁量权在提升监管部门自主性的同时,也潜藏着裁量权滥用的风险。正如美国学者所言:“裁量之运用既可能是仁行,亦可能是暴政,既有正义,亦有非正义,既可能是通情达理,亦可能是任意专断。”例如,前文所提到的试验机制、容错机制等监管措施,虽然有助于提升监管的针对性和有效性,但也可能成为监管部门滥用权力的借口。因此,为了防止监管部门在包容审慎监管中滥用权力,损害监管的公正性和权威性,必须建立健全相应的监督机制。


为了确保监管部门在对生成式人工智能风险进行监管时,能够符合法律法规并且推动创新发展,对监管活动进行司法审查就显得尤为重要。其一,司法机关应当审查监管行为是否具有正当目的。目的正当性是评价监管行为正当性的重要标准。监管行为的目的必须是为了实现公共利益或者维护社会秩序等正当目的,而不能是为了一己私利或者其他不正当目的。如果法律规定了监管行为的具体目的,那么,监管部门应当在法律法规的框架内进行监管,其目的必须与法律法规的规定保持一致;如果法律并未对此作出规定,那么,监管部门应当遵循公共利益的基本要求。公共利益是社会公众的共同利益,是监管行为存在的根本依据。只有符合公共利益的要求,监管行为才能获得公众的认可和支持,也才能具有正当性。其二,司法机关应当审查监管部门行为是否具有适当性、必要性以及均衡性等。适当性要求监管部门在作出监管行为时,必须选择适当的手段和方法,以达到预期的监管目的。一方面,监管部门所采取的监管手段必须与其追求的监管目的相匹配,不能为了实现某一目的而采取不相关或过度的手段;另一方面,监管部门所采取的监管手段必须是有效的,能够切实地实现预期的监管目的。必要性原则要求监管部门在作出监管行为时,必须在多种可能的手段中选择对生成式人工智能相关企业和个人损害最小的一种。均衡性原则要求监管部门在作出监管行为时,要平衡各种利益之间的关系,确保私人利益与公共利益之间的均衡。其三,司法机关应当审查监管部门裁量是否违反程序规定。司法机关应当对监管活动进行审查,包括其是否遵循了法定程序、是否给予了当事人充分的陈述和申辩机会等。如果监管部门的监管行为违反了程序规定,司法机关可以依法予以撤销等。总之,司法审查能够对监管行为进行全面评估,从而有效防止监管权力的滥用。此外,司法审查对于提升监管部门的责任感和公信力也具有重要意义。当监管部门意识到其监管行为将面临司法机关的严格审查时,其往往会更加审慎地行使手中的权力,更加注重保护科技企业的合法权益。


生成式人工智能有助于增进人类共同福祉和推动人类文明进步,这使得生成式人工智能服务使用者、非使用者以及社会各界很有必要走向合作,对生成式人工智能相关监管行为进行全方位的监察和评估,在防止监管部门滥用监管权力的同时,提高监管活动的科学性和合法性。社会监督的主体较为广泛,包括行业组织、科教机构、专业机构、舆论媒体、公民个人等,这些主体通过不同的方式和渠道,对监管行为进行监督和约束。社会监督重点关注主体之间的合作关系,以此消解社会监督的个体化、分散化、微弱化等问题。未来应当进一步激发社会公众实质性参与社会监督的热情,提高社会监督的效果。


结  语


数智时代,生成式人工智能的迭代发展和广泛应用,给政府监管带来了前所未有的挑战。面对这一形势,采取包容审慎监管显得尤为重要。包容审慎监管为生成式人工智能提供了必要的成长时间与试错空间,允许其在安全范围内自由发展。同时,监管部门根据风险管理的实际情况,进行适时且适度的监管。包容审慎监管以推动生成式人工智能创新发展为逻辑起点,以防范生成式人工智能各种风险为框架核心,以确保生成式人工智能安全可靠为实现路径。包容审慎监管既是灵活应对生成式人工智能安全风险的必然选择,也是促进创新和依法治理相结合的重要举措。通过管理机制、试验机制、容错机制、参与机制以及监督机制等,包容审慎监管将推动生成式人工智能高质量发展,促进生成式人工智能造福于人类。


阅读链接

徐继敏 | 生成式人工智能治理原则与法律策略

徐国冲 黄丽妹 | 理解监管沙盒:理论界说、实施原则与运用策略

涂良川 | “人工智能换人”技术取代叙事的历史唯物主义审视


欢迎分享与转载

长按二维码关注

长按二维码投稿

《理论与改革》编辑部

投稿:llgg.cbpt.cnki.net

电话:028-87351101

地址:成都市光华村街43号 中共四川省委党校

理论与改革
《理论与改革》创刊于1988年,双月刊,是由中共四川省委党校 四川行政学院主管、主办的综合性理论期刊。《理论与改革》入选南大CSSCI、中文核心期刊、AMI核心期刊及人大复印资料重要来源期刊。
 最新文章