重点推荐 ‖李杨:生成式人工智能风险的法律类型化治理

学术   科学   2024-07-04 11:42   陕西  

作者简介



  

  李杨(1977—),男,陕西定边人,延安大学政法与公共管理学院副教授。


欢迎引用:
李杨.生成式人工智能风险的法律类型化治理[J].延安大学学报(社会科学版)2024(1):31-38.欲浏览本刊最新内容,请点击文末“阅读原文”。
 人工智能(以下简称AI)是指由人类创造的能够模拟或超越人类智能的系统或技术,它已经成为当今社会最具影响力和变革力的科技力量之一。AI在各个领域都有广泛的应用和潜力,例如教育、医疗、交通、农业、金融、安全等。AI也有助于解决一些全球性的挑战和问题,例如气候变化、贫困、疾病、战争等。然而,AI也带来了一系列的风险和挑战,例如伦理、法律、社会、经济、政治等。这些风险和挑战需要从多个角度进行分析和解决,以确保AI的健康发展。在AI的各种类型和形式中,生成式人工智能(Generative  Artificial   Intelligence ),以下简称GAI是一种最具创新性和挑战性的技术,它指的是能够自主地创造出新的内容或数据的AI系统,例如文本、图像、音乐、代码等。GAI的出现代表人工智能技术的发展进入到一个新阶段,GAI不仅可以模仿已有的内容或数据,还可以生成出从未存在过的内容或数据,从而拓展了人类的想象力和创造力。GAI具有强大的创造力和灵活性,可以在文本、图像、音频、视频等多个领域产生高质量的内容输出,为人类社会带来巨大的价值和便利。GAI的出现改变了人机交互的既有模式,使自然语言处理、文本生成和数据处理等领域得到了巨大的发展和进步,标志着未来数字社会雏形已现。然而,GAI也存在着不同类型的风险和挑战,如数据安全、版权保护、道德责任、社会影响等,需要引起法律界和社会各界的高度关注和重视。

      GAI已经触及了强人工智能的边缘,使我们真真切切地感受到强人工智能时代未来已来显然,GAI既带来了人工智能技术的奇点时刻,也带来了人工智能治理的关键时刻GAI的风险复杂多样,唯有用类型化思维分类治理才能最终实现体系化治理。将类型作为重要的(但不是唯一的)思维形式,遵循类型的逻辑特征,在类型的基础上进行判断、推理、建构理论体系,这样的思维活动我们称之为类型化思维。类型化方法是一种将复杂的问题或现象分解为不同的类型或类别,从而便于分析和解决的方法文拟从风险类型的角度出发,分析GAI可能引发的主要法律问题,并探讨相应的法律规制路径和建议,旨在GAI的健康发展和合理应用提供一些参考。

 一、生成式人工智能(GAI)的类型化定位
 (一)生成式人工智能(GAI)的概念与特征

      GAI是一种利用深度学习等技术,通过模拟和创造数据,产生新的内容或结构的人工智能系统。它是人工智能的一个重要分支,也是人工智能发展的一个前沿领域。GAI的特别之处在于其底层技术,一个强大的预训练语言生成模型。GAI的基本思想是利用大量的数据作为输入,训练一个生成模型,使其能够学习数据的分布和规律,并根据给定的条件或目标,生成新的数据作为输出。GAI不仅可以复制已有的数据,还可以创造出原来不存在的数据,展现出强大的创造力和灵活性。

      GAI是数据、算法和算力共同作用的结果,具有以下几个显著的特点:(1)自主性:GAI不需要人为地干预或指导,可以根据自身的算法和数据集,自主地创造出新的内容或数据。(2)多样性:GAI可以在文本、图像、音频、视频等多个领域产生不同类型和风格的数据,满足了不同场景和需求的多样化。(3)可控性:GAI可以根据用户的指定条件或目标,调整生成数据的内容或结构,实现了对生成过程和结果的可控性。(4)创造性:GAI可以超越已有的数据集,创造出与原始数据不同但具有相关性和合理性的新的内容或数据。(5)高效性:GAI可以在短时间内生成大量的高质量的数据,节省了人力和时间成本,提高了生产效率。(6)可解释性:GAI可以提供生成数据的来源和依据,增加了生成数据的可信度和可解释性。(7)可塑性:GAI可以根据不同的目标或需求,调整自身的算法或模型,以适应不同的场景或应用。

    (二)生成式人工智能(GAI)的模型类型化分析

      生成模型是一种能够从数据中学习数据的分布和规律,并根据给定的条件或目标,生成新的数据的数学模型。GAI生成模型有多种类型,本文主要介绍以下5种。

      基于概率图模型(Probabilistic  Graphical  Model),以下简称PGM)的GAI:PGM是一种用图形表示概率关系的数学模型,可以用来描述变量之间的条件依赖关系。基于PGM的GAI主要包括基于有向图模型(如隐马尔可夫模型、贝叶斯网络等)和基于无向图模型(如玻尔兹曼机、马尔可夫随机场等)的GAI。这类GAI可以利用PGM对数据进行概率推理和抽样,从而生成符合数据分布的新数据。

      基于变分自编码器(Variational  Auto  Encoder,以下简称VAE)的GAI:VAE是一种基于神经网络的生成模型,可以将高维度的输入数据编码为低维度的隐变量,并从隐变量中解码出与输入数据相似但不完全相同的输出数据。VAE可以实现对输入数据的压缩、重构、插值、变换等操作。这类GAI可以利用VAE对数据进行非线性变换和降维,从而生成具有多样性和连续性的新数据。

      基于生成对抗网络(Generative  Adversarial  Network,以下简称GAN)的GAI:GAN是一种由两个神经网络组成的生成模型,一个称为生成器(Generator),一个称为判别(Discriminator)生成器的目标是从随机噪声中生成与真实数据相似但不完全相同的假数据,判别器的目标是区分真实数据和假数据。通过对抗和学习,生成器可以提高其生成数据的质量和逼真度,判别器可以提高其区分数据的准确度和敏感度。这类GAI可以利用GAN对数据进行高质量地加工,从而生成具有创新性和想象力的新数据。

      基于神经符号系统(Neural  Symbolic  System),以下简称(NSS)的GAI:NSS是一种将神经网络和符号系统相结合的生成模型,可以同时利用神经网络的学习能力和符号系统的推理能力。NSS可以将输入数据转化为符号表示,并通过符号运算和逻辑推理,得到符号输出,并将符号输出转化为数据输出。NSS可以实现对输入数据的抽象、解释、推广等操作。这类GAI可以利用NSS对数据进行知识化和逻辑化的加工,从而生成具有规律性和合理性的新数据。

      基于自回归模型(Autoregressive  Model),以下简称(ARM)的GAI:ARM是一种利用历史数据来预测未来数据的生成模型,可以用来描述时间序列数据的变化规律。基于ARM的GAI主要包括基于循环神经网络(Recurrent  Neural  Network),以下简称RNN)和基于注意力机制(Attention  Mechanism)的生成式人工智能。RNN是一种能够处理变长序列数据的神经网络,可以用来生成文本、音频等数据。注意力机制是一种能够增强神经网络对输入数据的关注和理解的技术,可以用来生成图像、视频等数据。

      (三)生成式人工智能(GAI)的功能类型化分析

      数据生成:GAI的基本功能是利用深度学习等方法,从大量的已有数据中学习数据的分布、结构和规律,然后根据给定的条件或目标,生成新的数据或内容,如文本、图像、音频、视频等。这种功能可以实现多种任务,如文本摘要、图像合成、语音合成、风格转换、数据增强等。

      内容创作:GAI的进阶功能是利用深度学习等方法,从大量的已有内容中学习内容的风格、主题和语义,然后根据给定的条件或目标,创作新的内容或数据,如艺术作品、科学发现、社会现象等。这种功能可以实现多种任务,如诗歌创作、视频字幕、化学合成、艺术生成等。

      交互沟通:GAI的高级功能是利用深度学习等方法,从大量的已有对话中学习对话的语言、情感和逻辑,然后根据给定的条件或目标,与用户进行交互和沟通,如聊天机器人、语音助手、情感分析等。这种功能可以实现多种任务,如问答系统、对话系统、情感识别、情感生成等。

      综上所述,GAI是一种具有广泛功能的人工智能技术,它为人类提供了更多的数据、内容和交互。

    (四)生成式人工智能(GAI)的价值类型化分析

      信息价值:GAI可以为人类提供更多的信息,增加信息的丰富性和可信度。GAI可以从大量的已有数据中学习数据的分布、结构和规律,然后根据给定的条件或目标,生成新的数据或内容,如文本、图像、音频、视频等。这些数据或内容可以帮助人类获取更多的知识,解决一些缺乏数据或难以获取数据的问题,如文本摘要、图像合成、语音合成等。GAI也可以提高数据的质量和多样性,通过数据增强等方法,增加数据的稳健性和泛化性,提升数据的应用性和有效性。

      创意价值:GAI可以为人类提供更多的创意,激发人类的想象力和创造力。GAI可以模拟和超越人类的思维方式,产生一些人类无法想象或实现的内容或数据,如新颖的艺术作品、新颖的科学发现、新颖的社会现象等。GAI也可以帮助人类实现一些创意性的任务,如风格转换、内容编辑、内容推荐等。GAI可以挑战和改变人类对于真实性、创造性和个性化的认识和评价,引发人类对于自身和社会的反思和探索。

      服务价值:GAI可以为人类提供更好的用户体验和服务,满足人类的个性化和定制化需求。GAI可以根据用户的偏好、需求和情境,生成适合用户的内容或数据,如个性化的广告、个性化的教育、个性化的娱乐等。GAI也可以与用户进行交互和沟通,提供友好和自然的对话和反馈,如聊天机器人、语音助手、情感分析等。

      综上所述,GAI是一种具有广泛价值的人工智能技术,它为人类提供了更多的信息、知识和创意,以及更好的用户体验和服务。GAI是一种既有利又有弊的双刃剑,它需要人类在使用过程中保持理性和审慎,以充分发挥其正面作用,同时避免其负面影响。

二、生成式人工智能(GAI)的风险类型及其法律挑战

      GAI具有拟人类思维能力,涉及的法律关系复杂,治理对象具有可变性和高技术性。GAI虽然具有巨大的价值和潜力,但却在内容公平性、真实性和可靠性方面带来治理挑战。也就是说,其在满足人们多元化需求的同时也发生了技术应用的异化,使其生成的内容存在违法风险,需要引起法律界和社会各界的高度关注和重视。

      类型化方法可以帮助我们理清GAI风险的来源、性质、程度和影响,从而制定相应的治理策略和措施。本文从风险的来源和影响的角度出发,将GAI的风险分类为四类:数据风险、内容风险、社会风险和法律风险,并分别分析了这四类风险所带来的主要法律挑战,如数据保护、内容监管、责任归属等。

     (一)数据风险的类型化分析

      数据风险是指GAI在获取、使用、存储、传输、共享和销毁数据的过程中,可能导致数据的泄露、损坏、篡改、滥用、盗用等不利后果,从而侵犯数据主体的合法权益,或危害数据安全和社会秩序的风险。数据风险主要带来以下几个方面的法律挑战:

      数据保护:数据保护是指保障数据主体对自己的个人信息或其他敏感信息拥有知情权、选择权、控制权等基本权利,防止数据被非法收集、使用、传播或泄露等侵害行为。个人信息泄露频发风险是GAI将给个人信息保护带来的又一大痛点,由于GAI需要大量的数据作为输入,有可能涉及个人隐私或其他敏感信息,如身份证号、银行账号、生物特征等。如果这些数据没有得到有效的保护,就有可能被GAI或其他第三方滥用或盗用,造成数据主体的损失或伤害。例如,GAI可以利用个人信息生成虚假身份证或信用卡等,进行诈骗或洗钱等犯罪活动。因此,需要建立完善的数据保护法律制度,规范GAI对数据的收集、使用、存储、传输、共享和销毁等行为,保障数据主体的合法权益。

      数据质量:GAI具有泛化性、通用性、迁移性的显著优势和巨大潜力,但其训练过程需要海量的多源数据。数据质量是指数据是否具有准确性、完整性、一致性、时效性等质量属性,是否能够满足GAI的需求和目标。由于GAI依赖于数据进行学习和生成,如果输入的数据存在错误、缺失、冗余、过时等质量问题,就有可能影响GAI的性能和效果,造成不可预期或不可控制的后果。例如,GAI可以利用错误或过时的数据生成不真实或不合理的新闻、评论、证据等,误导公众舆论或司法判断。因此,需要建立完善的数据质量管理机制,对输入和输出的数据进行有效的清洗、校验、更新等操作,提高GAI的可靠性和可信度。

      数据所有权:数据所有权是指对于数据拥有使用权、处分权、收益权等权利主张和行使的权利关系。由于GAI可以利用已有的数据生成新的数据,有可能引发对于原始数据和生成数据之间所有权归属和分配的争议或纠纷。例如,GAI可以利用已有的文学、音乐、美术等作品生成新的作品,或利用已有的专利、商标、设计等技术方案或产品生成新的方案或产品。这就涉及原始数据和生成数据之间的创新性、独创性、贡献度等评价标准,以及原始数据和生成数据之间的使用权、处分权、收益权等权利分配方式。因此,需要建立完善的数据所有权法律制度,明确GAI对数据的使用范围和条件,保护原始数据和生成数据之间的平衡和公平。

     (二)内容风险的类型化分析

      内容风险是指GAI生成的数据可能存在不真实、不合法、不道德、不负责等问题,从而侵犯他人的合法权益,或危害社会公序良俗,或影响社会信任和认知的风险。总之,GAI生成的内容会给国家安全、公共安全和私人权益带来风险。内容风险主要涉及以下几个方面的法律挑战。

      内容真实性:内容真实性是指GAI生成的数据是否与事实相符,是否具有可信度和可靠度。由于GAI可以生成高度逼真的数据,有可能造成虚假、误导、欺骗等后果,损害他人的名誉、权益或利益,或影响社会的判断和决策。例如,GAI可以生成虚假的新闻、评论、证据、证词等,对公众舆论、司法公正、国家安全等造成威胁。因此,需要对GAI生成的数据进行真实性的验证和标识,以防止其被滥用或误用。

      内容合法性:内容合法性是指GAI生成的数据是否符合法律法规的规定,是否侵犯他人的合法权益,是否危害社会公共利益。由于GAI可以生成各种类型和风格的数据,有可能涉及违法、侵权、反社会等问题,如色情、暴力、诽谤、侵权等。例如,GAI可以生成侵犯他人肖像权、隐私权、名誉权等人格权的数据,或侵犯他人著作权、商标权、专利权等财产权的数据。因此,需要对GAI生成的数据进行合法性的审查和监管,以防止其被用于非法或不正当的目的。

      内容版权:内容版权是指对于数据拥有使用权、处分权、收益权等权利主张和行使的权利关系。由于GAI可以利用已有的数据生成新的数据,有可能引发对于原始数据和生成数据之间所有权归属和分配的争议或纠纷。例如,GAI可以利用已有的文学、音乐、美术等作品生成新的作品,或利用已有的专利、商标、设计等技术方案或产品生成新的方案或产品。这就涉及原始数据和生成数据之间的创新性、独创性、贡献度等评价标准,以及原始数据和生成数据之间的使用权、处分权、收益权等权利分配方式。因此,需要建立完善的内容版权法律制度,明确GAI对数据的使用范围和条件,保护原始数据和生成数据之间的平衡和公平。

      内容责任:内容责任是指对于GAI生成的数据所造成的损失或伤害承担相应的民事责任、行政责任或刑事责任,以及责任主体是谁,如GAI本身、GAI开发者、GAI使用者、GAI受害者等。由于GAI可以生成具有潜在危害或影响力的数据,有可能导致损失或伤害,如经济损失、人身伤害、精神损害等。例如,GAI可以生成造成误导或欺骗的广告、合同、证明等,或造成伤害或威胁的恐吓、威胁、诽谤等。因此,需要建立完善的内容责任法律制度,明确GAI及其相关方的责任主体和责任范围,保障受害者的合法权益。

     (三)社会风险的类型化分析

      社会风险是指GAI生成的数据可能对社会的公序良俗、公平正义、安全稳定等方面产生不利影响,从而引发社会的不满、抵制、反对或抗议的风险。社会风险主要带来以下几个方面的法律挑战。

      社会公序良俗:社会公序良俗是指社会公认的道德规范和行为准则,是法律法规的基础和补充。由于GAI可以生成违背社会公序良俗的数据,有可能损害社会道德和文化传统,或引起社会的反感和厌恶。例如,GAI可以生成涉及种族、性别、宗教、政治等争议性数据,或涉及暴力、恐怖等危害性数据。因此,需要对GAI生成的数据进行道德的审慎和约束,以防止其对社会公序良俗造成破坏或冲击。

     社会核心价值观:社会核心价值观风险防范是事关民族复兴、国家主权、文化建设的核心范畴。GAI生成的内容或数据可能违反社会的道德规范或价值观,例如色情、暴力、歧视、诽谤等。这些内容或数据可能对公众的道德感、审美观、人格尊严等造成负面的影响和伤害。同时,GAI生成的内容或数据也可能引发人类对人工智能的信任危机或道德困境,例如真实性、责任性、可控性等。

      社会公平正义:社会公平正义是指社会各个成员或群体享有平等的权利和机会,受到合理的待遇和保护。由于GAI可以生成影响社会公平正义的数据,有可能导致社会的不平等、不公正、不和谐,或引起社会的不满、抗争、冲突。例如,GAI可以生成影响个人或群体的就业、教育、医疗、福利等方面的数据,或影响个人或群体的声誉、地位、权益等方面的数据。因此,需要对GAI生成的数据进行公平的评估和监督,以防止其对社会公平正义造成损害或侵害。

      社会安全稳定:社会安全稳定是指社会各个成员或群体享有安全和稳定的生活环境,不受外部或内部的威胁或干扰。由于GAI可以生成危害社会安全稳定的数据,有可能导致社会的动荡、混乱、危机,或引起社会的恐慌、紧张、恐惧。例如,GAI可以生成影响国家安全、国防军事、外交关系等方面的数据,或影响公共安全、公共卫生、公共秩序等方面的数据。因此,需要对GAI生成的数据进行安全的检测和管理,以防止其对社会安全稳定造成威胁或破坏。

    (四)法律风险的类型化分析

      知识产权风险:GAI作品与人类作品在创造主体上存在着不同,但究其本质,它们都是融合了智力和创造的结果,都蕴含着物质与经济的价值。GAI生成的内容或数据可能涉及原始作者或权利人的知识产权,例如版权、商标权、专利权等。如果GAI未经授权使用了他人的作品或数据,可能构成侵权行为。同时,GAI生成的内容或数据是否具有知识产权保护,以及如何确定其作者或权利人,也是一个亟待解决的问题。

      信息安全风险:GAI生成的内容或数据可能被用于制造或传播虚假或误导性的信息,例如假新闻、假视频、假评论等。这些信息可能对公众舆论、社会秩序、国家安全等造成严重的影响和危害。同时,GAI生成的内容或数据也可能被用于攻击或欺骗其他人工智能系统或网络设备,例如对抗样本、对抗攻击等。

      个人隐私风险:GAI生成的内容或数据可能涉及个人的隐私信息,例如姓名、身份证号、面部特征、生物特征等。如果GAI未经同意或合法地收集、使用或泄露了他人的隐私信息,可能构成侵犯隐私权的行为。同时,GAI生成的内容或数据也可能被用于伪造或替代他人的身份或行为,例如身份伪造、身份盗窃等。

      刑事犯罪风险:不法之徒利用GAI,用其创建无代码的虚假内容,以此实施诈骗、恐吓、诽谤等网络犯罪。GAI可能引发的刑事犯罪主要有以下几种:第一,诈骗罪。GAI可以模拟真人的语言和表情,制造虚假的身份和信息,诱骗受害者上当受骗,非法占有他人财物或者使他人遭受财产损失。例如,通过GAI生成的“虚拟角色”,与受害者建立感情,然后以各种理由索要钱财。第二,侵犯知识产权罪。GAI可以复制、修改、伪造他人的原创作品,如文学、音乐、艺术等,侵犯原作者的著作权、商标权等知识产权。例如,通过GAI生成的“抄袭作品”,与原作品相似或相同,导致原作者的经济利益和精神利益受到损害。第三,侵犯数据、信息、计算机信息系统罪。GAI可以利用其强大的计算能力和编程能力,攻击、入侵、破坏他人的数据、信息、计算机信息系统,窃取或泄露个人信息、商业秘密等敏感数据。例如,通过GAI生成的“恶意软件”,对目标系统进行加密、删除、篡改等操作,要求支付赎金或者泄露数据。第四,侵犯公民人身权利罪。GAI可以制造虚假或不良的内容,如淫秽色情、暴力恐怖等,对公民的生命、健康、名誉、隐私等权利造成伤害。例如,通过GAI生成的“换脸视频”,将受害者的面部替换成其他人或物,进行诽谤、威胁或敲诈。第五,传授犯罪方法罪。GAI可以向有犯罪倾向或意图的人提供各种犯罪方法和程序,如制作爆炸物、伪造证件、盗刷银行卡等,助长或促成他们实施犯罪。例如,通过GAI生成的“教程文本”或“教程视频”,教唆如何实施某种犯罪行为。

     法律监管和治理问题:GAI涉及多个主体、多个领域、多个国家等,目前还没有一个统一的法律规制框架来规范和监督GAI的开发和应用,也缺乏有效的治理机制来预防和解决GAI可能引起的问题。

 三、生成式人工智能(GAI)法律风险的类型化治理   

      GAI的发展和应用,不仅带来了巨大的社会价值和经济效益,也带来了诸多的法律风险和挑战,需要建立相应的法律规制机制,以保障GAI的健康发展和合理应用。GAI的发展需要法律予以及时规制,以实现技术的发展可受控制。GAI的法律规制应坚持“包容审慎原则”。第一,尊重人权。对GAI的治理应遵循人本逻辑制定防控GAI风险的“一体化”顶层战略, GAI的法律规制应该以人为本,尊重和保护人类的基本权利,例如生命权、健康权、财产权、隐私权、表达权、创作权等。第二,促进创新。GAI的法律规制应该鼓励和支持创新,为GAI的研发和应用提供合理的空间和条件,避免过度的限制或干预。坚持技术向善原则,推进技术负责任的创新。第三,平衡利益。GAI的法律规制应该平衡各方的利益,维护公共利益和社会秩序,保障个人利益和私人权益,协调国际利益和全球治理。第四,防范风险。GAI的法律规制应该防范和消除风险,提高GAI的安全性和可靠性,预防GAI的滥用或误用,应对GAI的危害或侵权。在以上几个原则指导下,本文从立法、执法、司法和自律四个层面,探讨了GAI的法律规制路径和建议。

     (一)立法类型化治理

     立法类型化治理是指通过制定或修改相关的法律法规,明确GAI的定义、分类、原则、标准、权利、义务、责任等法律规范,为GAI的发展和应用提供基本的法律依据和指导,通过立法路径弥补现有规范的行为规制漏洞。立法类型化治理有以下几条途径。

      制定专门的GAI法。GAI法是指专门针对GAI的特点和问题,制定的综合性、基础性、框架性的法律。GAI法可以从定义、分类、原则、标准、权利、义务、责任等方面,对GAI进行全面的规范和管理,为GAI的发展和应用提供统一的法律依据和指导。例如,欧盟在2021年4月发布了《人工智能法案》草案,是世界上第一个针对人工智能进行全面规范的法案。2023年6月14日,欧洲议会(EuropeanParliament)以499票赞成、28票反对和93票弃权的压倒性结果通过了该《人工智能法案》(AIAct)草案。该草案将人工智能分为四类风险等级:无风险、低风险、高风险和禁止风险,并根据不同风险等级,对人工智能进行不同程度的监管。针对GAI的特殊性和复杂性,我国应建立专门的GAI法律,明确GAI的定义、分类、标准、程序等基本要素,规定GAI的权利、义务、责任等基本规则,构建GAI的监督、管理、审查等基本机制。根据GAI的分层业态(基础模型-专业模型-服务应用),建立分层治理体系,在不同的层次适配不同的规制思路与工具。在基础模型层以发展为导向,将其作为数字社会新型基础设施设置法律制度;在专业模型层以审慎包容为理念,进行分级分类并设置合理避风港规则;在服务应用层实施敏捷治理,建立合理容错制度。

      修改完善相关的领域法。领域法是指针对某一特定领域或行业,制定的具体性、专业性、细化性的法律。领域法可以根据不同领域或行业的特点和需求,对GAI在该领域或行业中的应用进行针对性的规范和管理,为GAI在该领域或行业中的发展和应用提供具体的法律依据和指导。例如,中国2021年11月1日起施行的《个人信息保护法》,是中国首部专门针对个人信息保护进行全面规范的法律。该草案对个人信息处理活动进行了详细的规定,包括个人信息处理原则、个人信息处理规则、个人信息处理者义务、个人信息主体权利等。此外,根据GAI涉及的不同领域和问题,完善相关的法律制度,建立和完善适用于GAI的法律制度,包括知识产权法、信息安全法、个人信息保护法、网络安全法等。明确GAI的定义、分类、标准、范围等基本概念和原则。规定GAI的合法使用条件、限制范围、禁止行为等具体规则。设立GAI的监督管理机构,负责GAI的登记备案、审查认证、检测评估等工作。

      在制定和完善GAI相关法律时,可以参考国际上的先进经验和做法,借鉴和吸收其他国家或地区在GAI方面的立法理念、原则、规则等,以提高我国GAI法律的科学性、适用性和前瞻性。例如,可以参考欧盟《人工智能法案》(Artificial Intelligence Act),其中对于GAI的定义、分类、风险评估、监督管理等方面都有较为详细和完善的规定。

     (二)执法类型化治理

      执法类型化治理是指通过建立或完善相关的监管机制和标准体系,对GAI的开发、应用、传播等活动进行有效的监督和管理,以保障GAI的合规性和安全性。执法层面的主要措施和方案有如下几种。

      建立专门的监管机构。监管机构是指负责对GAI进行监督和管理的政府部门或社会组织。监管机构可以根据GAI的风险等级和应用领域,制定相应的监管政策和措施,如许可、备案、审查、检测、认证等。监管机构还可以对GAI进行定期或不定期的检查和评估,如风险评估、效果评估、影响评估等。监管机构还可以对违反法律法规或监管规定的GAI及其相关方,进行相应的处罚和救济,如警告、罚款、没收、停产、索赔等。例如,美国在2020年12月成立了《国家人工智能倡议办公室》(National Artificial  Intelligence  Initiative  Office),是美国首个专门负责协调和推进人工智能研究和政策的联邦机构。我国在执法层面要加强和完善适用于GAI的技术监管,包括技术开发、技术应用、技术更新等各个阶段。明确GAI的技术要求、技术标准、技术指南等基本规范和指引。规定GAI的技术审查、技术测试、技术评估等具体程序和方法。设立GAI的技术监督机制,负责GAI的技术监测、技术审计、技术干预等工作。

     建立完善的标准体系。标准体系是指对GAI的技术、产品、服务等方面进行规范和指导的一系列标准。标准体系可以根据GAI的技术特点和应用需求,制定相应的技术标准、产品标准、服务标准等,如功能标准、性能标准、质量标准、安全标准等。标准体系可以根据GAI的社会影响和法律责任,制定相应的道德标准、法律标准等,如真实性标准、合法性标准、责任性标准等。标准体系还可以根据GAI的发展动态和变化趋势,进行相应的修订和更新,以保持其适应性和先进性。

      加强对GAI的技术监测。由于GAI技术水平的提高,可能会出现一些难以发现或识别的GAI生成的内容或数据,从而给执法带来困难。因此,需要加强对GAI的技术监测,利用人工智能或其他手段对网络上出现的各种内容或数据进行自动或半自动地检测和鉴别,并及时发现并处理可疑或违法的内容或数据。

      (三)司法类型化治理

      在司法领域,GAI亦有广阔的运用前景,如可用于“示意证据”的生成、诉讼文书的制作等,但是其存在的多类型的风险使得司法层面必须积极应对。司法类型化治理是指通过建立或完善相关的诉讼制度和裁判规则,对GAI涉及的法律纠纷或争议进行有效的解决和裁决,以保障GAI的合法性和正当性。具体来说,可以从以下几个方面入手。

      建立专门的诉讼程序。诉讼程序是指对GAI涉及的法律纠纷或争议进行审理和判决的一系列步骤和规则。诉讼程序可以根据GAI的技术特性和法律问题,制定相应的诉讼主体、诉讼方式、诉讼标准、诉讼证据等。诉讼程序还可以根据GAI的风险等级和影响范围,制定相应的诉讼管辖、诉讼时效、诉讼费用等。诉讼程序还可以根据GAI的发展变化和社会需求,进行相应的调整和完善,以保持其适应性和效率。例如,英国在2018年发布了《人工智能与英国法律体系报告》,是英国首个针对人工智能与法律体系关系进行研究和建议的报告。该报告提出了对于人工智能涉及的法律纠纷或争议,应该建立专门的诉讼程序,如设立专门的人工智能法庭、采用在线或混合式的诉讼方式、引入专业或技术性的证据规则等。

      建立完善的裁判规则。裁判规则是指对GAI涉及的法律纠纷或争议进行判断和裁决的一系列原则和方法。裁判规则可以根据GAI的技术特性和法律问题,制定相应的责任主体、责任类型、责任程度、责任标准等。裁判规则还可以根据GAI的风险等级和影响范围,制定相应的赔偿方式、赔偿数额、赔偿标准等。裁判规则还可以根据GAI的发展变化和社会需求,进行相应的调整和完善,以保持其公正性和合理性。例如,美国在2019年发布了《人工智能与责任报告》,是美国首个针对人工智能与责任关系进行研究和建议的报告。该报告提出了对于人工智能涉及的法律纠纷或争议,应该建立完善的裁判规则,如明确责任主体包括人工智能本身、开发者、使用者、受害者等,明确责任类型包括民事责任、行政责任、刑事责任等,明确责任程度包括轻微责任、一般责任、重大责任等,明确责任标准包括过失原则、严格责任原则、风险分担原则等。

     (四)自律类型化治理

      自律类型化治理是指通过建立或完善相关的道德规范和行为准则,形成完善的GAI领域科技伦理规范,对GAI的开发者、使用者、受益者等相关方进行有效的引导和约束,以保障GAI的道德性和责任性。自律层面的主要措施和方案主要有以下几个方面。

      建立健全的GAI自律组织及风险管理机制。为了促进GAI主体之间的沟通和协作,以及提高GAI主体的自律水平和能力,需要建立健全的GAI自律组织,如行业协会、学术团体、社会团体等。这些组织可以制定或参与制定相关的行业标准、行为准则、道德规范等,并对其成员进行教育、培训、监督、评估等。为了有效预防和控制自身可能产生或面临的GAI法律风险,需要完善自身的GAI风险管理机制,如风险识别、风险评估、风险控制、风险应对等。这些机制可以通过建立或完善相关的制度、流程、措施、工具等来实现,并定期进行检查、更新、改进等。

      建立专门的道德规范。道德规范是指对GAI的开发者、使用者、受益者等相关方进行道德教育和培训,提高其对GAI的认识和理解,增强其对GAI的道德意识和责任感,促进其遵守法律法规和社会公序良俗,防止其滥用或误用GAI。道德规范可以从尊重、公平、透明、可信、可控等方面,对GAI的开发者、使用者、受益者等相关方进行道德引导和约束。例如,中国在2019年发布了《新一代人工智能治理原则》,是中国首个针对新一代人工智能进行道德规范和治理指导的文件。该文件提出了对于新一代人工智能的开发者、使用者、受益者等相关方,应该遵守的八项原则,如尊重人类、公平正义、包容共享、尊重隐私、安全可靠、共同责任、开放协作、敏感适度等。

      建立完善的行为准则。行为准则是指对GAI的开发者、使用者、受益者等相关方进行行为规范和监督,要求其在GAI的开发、应用、传播等活动中,遵循一定的行为标准和程序,保障GAI的质量和效果,防止GAI造成不利后果或影响。行为准则可以从诚信、合作、创新、服务等方面,对GAI的开发者、使用者、受益者等相关方进行行为规范和监督。例如,美国在2019年发布了《联邦政府领导下的可信赖人工智能》,是美国首个针对联邦政府部门使用人工智能进行行为准则和指南的文件。该文件提出了对于联邦政府部门使用人工智能应该遵守的原则,如法治遵从、目标明确、逻辑可解释、性能可衡量、数据质量保证、风险评估管理、用户参与反馈、透明度披露、安全防护更新等。

      GAI具有巨大的价值和潜力可以在各个领域和行业中发挥重要作用如文本生成图像生成音频生视频生成等GAI也带来了诸多的风险和挑战需要建立相应的法律规制机制以保障GAI的健康发展和合理应用为此可以从技术风险和规制三个方面提出以下几点展望第一技术方面GAI的技术发展经历了从概率图模型到变分自编码器再到生成对抗网络和神经符号系统的演进过程表现出了从数据驱动到知识驱动再到数据知识融合的趋势未来GAI的技术发展将更加注重数据的质量和效率知识的表达和推理以及数据和知识的融合和协同以提高GAI的性能和效果第二风险方面GAI的风险分类为数据风险内容风险社会风险和法律风险涉及数据保护内容监管责任归属等法律问题未来GAI的风险将更加复杂和隐蔽需要更加精细和灵活地进行风险评估和管理以防止GAI造成不可逆转或不可预测的后果或影响第三规制方面GAI的法律规制路径包括立法执法司法和自律四种类型化治理涉及制定专门的法律法规建立专门的监管机构建立专门的诉讼程序等措施和方案未来GAI的法律规制将更加注重协调平衡各方利益和需求促进和支持创新发展以实现GAI与社会的协同进步

编辑:李 艳         文字整理:袁娜娜   

核稿:刘国荣   高布权

投稿网址: 

https://skxb.yau.edu.cn/Journalx_skb/authorLogOn.action

电  话:0911-2332076

延安大学学报社会科学版
《延安大学学报(社会科学版)》是国内外公开发行的综合性社会科学学术刊物。先后获评全国高校优秀社科学报和陕西省重点社科学报,人大“复印报刊资料”重要转载来源期刊。2014年、2018年、2022年连续入选中国人文社科期刊核心期刊(扩展版)。
 最新文章