近年来,新一轮科技革命和产业革命浪潮涌起,人工智能技术发展迅速,作为各领域新兴技术背后的元技术被广泛应用于诸多领域,涉及产业升级、人才培养和社会融合等多层面,不断催生新产业、新业态、新商业模式,成为加快培育和发展新质生产力的重要引擎。当前,我国生成式人工智能正经历着从初期爆发式增长向广泛普及转变,所带来的数据安全、算法黑箱、新型纠纷等风险挑战层出不穷,统筹人工智能高质量发展和高水平安全是事关我国能否抓住新一轮变革机遇的战略问题,应从技术、伦理、法律等多方面设置“安全阀”,系统性推进人工智能高质量安全发展。特别是党的二十届三中全会明确提出“完善推动新一代信息技术、人工智能……等战略性产业发展和治理体系”“完善生成式人工智能发展和管理机制”“建立人工智能安全监管制度”,为人工智能技术的发展提供了明确的政策导向。
生成式人工智能技术演进
引发治理变革与挑战
生成式人工智能技术演进重塑治理焦点,加大治理难度。首先,新业态的崛起成为不可忽视的现象。传统的人工智能治理主要围绕数据、算法和平台展开。然而,近两年生成式人工智能已迅速构筑起“基础模型—专业模型—服务应用”的层级化产业格局。生成式语言模型崭露头角,跨部门采纳率激增,同时生成式AI工具亦呈现出爆炸性增长。其次,治理重心的转移成为必然趋势。随着AI技术在内容创造方面的能力增强,平台已不再是信息流通和内容生成的唯一枢纽,其对数据资源和要素运用的核心控制力有所削弱。因此,治理的焦点由单一的平台治理模式,转向更为分散化和多元化的治理路径。关注点逐渐集中于AI模型本身,包括其设计理念、训练过程和应用场景,而非仅仅局限于平台层面的监管。最后,治理对象和方法论的变迁亦成为治理面临的挑战。生成式人工智能技术的迅猛发展,以及其应用前景和发展方向的不可预知性,使得治理的范畴不再局限于特定平台或企业,而是扩展至整个AI生态系统,包括数据、算法、模型和应用等各个方面。与此同时,立法机构对于底层技术的迅猛发展理解不足,导致法律和监管措施的滞后,难以有效应对新兴技术和应用带来的诸多挑战。
人工智能发展呈现跨界性和跨国性,面临治理挑战。一方面,随着我国“人工智能+”行动的全面推进,亟需围绕研发、应用和产业赋能等全流程进行立法和监管。行业间的数据共享和流通需要打破壁垒,但同时也带来数据安全和隐私保护的问题。不同行业对人工智能的应用需求和标准各异,面临实现跨行业的统一标准和协调监管的挑战,对立法的系统性和协调性提出了更高要求。另一方面,不同国家对人工智能的法律规定和监管框架存在差异,跨国运营企业面临合规挑战。数据治理在跨国层面尤为复杂,涉及数据主权、跨境数据流动、数据存储位置等问题。人工智能技术的国际标准尚未完全统一,影响了技术的互操作性和全球市场的整合。所以人工智能立法不仅体现本国的立法和监管智慧,还将被置于“放大镜”下被其他各国审视,是国家竞争力的重要组成部分。
人工智能技术创新,带来伦理道德等新型安全风险。一是人工智能技术创新引发的伦理道德风险。由于人工智能的决策过程依赖于复杂的算法和模型,其结果有可能与人类的伦理道德标准相悖,例如出现歧视性决策、无端侵犯个人隐私等行为。算法可能无意中嵌入偏见,导致在招聘、信贷、保险等领域的决策过程中出现歧视现象,加剧社会不平等。面对这一挑战,生成式人工智能的治理必须精准把握技术创新与伦理道德之间的平衡点。二是安全隐患对个人信息安全和社会秩序稳定的威胁。黑客攻击、病毒感染等安全隐患,可能导致数据泄露、系统瘫痪,对个人信息安全、社会秩序稳定和国家安全构成威胁。特别是高度自主的人工智能系统,一旦因设计缺陷或外部干扰失控,执行非预期操作,后果将不堪设想。三是责任主体界定困难。当人工智能系统发生错误或造成损害时,责任主体的界定成为一大难题,使得受害者寻求法律救济的道路变得异常曲折。
追求高质量发展与高水平
安全的统筹兼顾
创新治理架构、优化治理手段,适应人工智能发展新业态。治理生成式人工智能的关键在于实现治理理念的更新、治理架构的优化以及治理手段的创新。一是针对新业态的涌现,治理体系应实现从静态监管向动态适应的转变。生成式人工智能构建的层级化产业格局,要求治理者跳出传统数据、算法、平台的框架,深入探讨“基础模型—专业模型—服务应用”链中的治理新逻辑。治理策略应注重灵活性和前瞻性,以适应生成式语言模型和应用工具的快速扩散。二是鉴于治理重心的潜移,构建多元化的治理架构。在AI技术内容创造能力增强的背景下,治理焦点应从平台中心主义转向对AI模型本质的深入审视,包括其设计理念、训练过程和应用情境的全方位治理。此转变强调治理的深度与广度,以实现对技术本质的精准把握。三是面对治理对象和方法论的演变,采取系统性的治理视角。生成式人工智能的发展要求我们将治理范畴扩展至整个生态系统,实施跨领域、跨层级的综合治理。同时,立法和监管机构需加强对技术发展趋势的洞察,推动法律与监管体系的创新,以应对技术的不可预知性和复杂性。
构建跨界跨国综合治理框架,促进人工智能治理共识形成。生成式人工智能的治理需立足于理论与实践相结合的高度,通过创新治理理念和手段,实现技术发展与伦理道德、安全保障的和谐统一。首先,针对生成式人工智能的跨界特性,建议构建多层次、跨领域的综合治理框架。应充分考虑我国“人工智能+”战略的实施,围绕研发、应用推广至产业赋能的全链条,制定具有前瞻性的立法和监管措施。在此过程中,需特别关注行业间数据共享与流通的壁垒问题,探索建立既能促进信息自由流动,又能保障数据安全和隐私保护的新型治理模式。还应注意到,跨行业统一标准的制定与协调监管,是提升治理效率的关键。其次,在国际法律环境差异的背景下,面对生成式人工智能的跨国性挑战,推动形成全球治理共识。我国应积极参与国际规则的制定,推动建立跨国数据治理框架,以解决数据主权、跨境数据流动等复杂问题。同时,我国立法和监管实践应致力于推动人工智能技术的国际标准化,促进全球技术生态的互操作性,从而在提升国家竞争力的同时,为全球治理贡献中国智慧。
平衡技术理性与安全风险,实现人工智能决策治理创新。人工智能的决策逻辑深植于复杂算法之中,治理策略应致力于探索技术理性与伦理价值之间的动态平衡。一是构建以伦理为先导的治理模式。通过精细化的伦理审查和算法透明度提升,消除招聘、信贷等领域的算法偏见,从而促进社会公平正义。二是前瞻性地识别和评估人工智能系统的潜在威胁。针对黑客攻击、病毒感染等安全漏洞,制定综合性安全策略,确保个人信息安全与社会秩序稳定。对于高度自主的人工智能系统,治理重点应转向预防性监管,通过设计原则的嵌入和外部监督机制的强化,防止系统失控所导致的不可预测后果。三是针对生成式人工智能责任归属的模糊性,亟需在立法层面创新责任认定机制,确立适应人工智能特点的责任体系。打破传统法律框架的局限,构建一套既能保障受害者权益,又能激发技术创新活力的法律救济路径。
人工智能治理的深化,不仅是对技术发展的规范,更是对伦理道德原则的坚守,以及对未来社会秩序的前瞻性布局。人类与人工智能的共生将是未来的长期态势,面对技术与风险的持续不确定性,必须兼顾高质量的发展与高水平的安全保障,构建生成式人工智能的治理体系。
文中配图来源于网络
本文经授权发布,转载请注明来源。
“马字号”编辑部联系方式:
黄乐 15868478088
推荐阅读