◆ ◆ ◆ ◆
上海市社会科学界联合会主办主管
有学术的思想 EXPLORATION AND FREE VIEWS
官网地址 http://www.tsyzm.com
◆ ◆ ◆ ◆
目前本刊只接受《探索与争鸣》网站投稿。请收藏唯一真实官网地址www.tsyzm.com。原编务邮箱tsyzm@sssa.org.cn停止使用,原投稿邮箱tansuoyuzhengming@126.com为编务邮箱和应急邮箱。原创文章,未经授权,谢绝转载,如需转载请留言。
中国人工智能立法的价值基础与伦理治理模式
张龑|中国人民大学法学院副院长、教授
本文原载《探索与争鸣》2024年第10期
具体内容以正刊为准
非经注明,文中图片均来自网络
张龑教授
人工智能不仅是一种替代劳动的自动化技术与生产工具,同时构成了新质生产力基本内涵中的劳动力要素。作为劳动力的一部分,人工智能本身有着一般生产工具所不具备的伦理属性,在创新生产方式的同时,也必然深刻改变人类的价值观与生活方式。当下,深入探讨人工智能立法的价值基础,结合中华优秀传统文化,建立符合人工智能特质的伦理治理模式,是我国人工智能法治化建设的重要任务。
人工智能立法的时代背景与价值基础
1956 年“人工智能”概念首次在美国达特茅斯学院被提出。自此之后,人工智能成为未来科技的代名词。但时至今日,人工智能都难以构成具有严格内涵与外延的术语,其泛指涵盖一切运用机器模拟人脑智慧进行思考和决策的理论、方法和技术。2023年初,OpenAI公司开发的ChatGPT-4 横空出世。此后,Sora、Claude、Gemini、文心一言等生成式人工智能大模型层出不穷,引发新一轮人工智能发展高潮,朝着通用化的终极目标发起冲刺。不同于先前取得成功的各种人工智能系统,通用人工智能的目标要求机器应当具备“智能体在各种环境中实现目标的能力”。在这一席卷全球的浪潮下,人工智能技术不断在传统场景落地与应用,与传统领域融合发展,对社会生活产生越来越广泛的影响。相应地,社会对人工智能的规范与治理的需求也愈发迫切。
当前人工智能快速发展,涉及内容生成、自动决策、面部识别以及大数据分析等技术的应用不断增多,引发了社会关于数据隐私、公平性、透明度、安全和责任等问题的担忧。这不仅反映了数字社会中传统法律控制对利用人工智能等技术手段实施违法犯罪失效的困境,更使人类认识到自身面临的是一场对“人本挑战,确保社会有序转型的必经之路。
人工智能发展从一开始就是全球性的,引发国际竞争势所必然。各国的监管机构在本国治理经验的基础上,纷纷致力于将自己的方案发展为全球共识,从而引发了一场关于人工智能治理的全球竞争。哪些国家能够率先制定并实施有效的治理框架,将直接影响其在人工智能治理领域的政策输出能力和国际影响力,也会为本国人工智能技术出海提供便利和支持。目前来看,我国在人工智能发展的很多方面居于世界领先地位,这决定了我国人工智能治理不仅要开展广泛的国际合作,还要冷静应对激烈的竞争。因此,我国应当积极发挥引领全球人工智能治理的作用,结合本国立法实践,提出中国方案,贡献中国智慧。
当前我国人工智能领域呈现出快速发展的趋势,百度、阿里、科大讯飞、华为等科技巨头纷纷下场,使得对人工智能的立法监管需求变得愈发紧迫。然而,人工智能法律监管的力度与市场活力之间具有复杂的相关性。一般来说,监管力度弱则市场活力强,这可以从我国互联网产业的发展史中得到印证。过于严格的监管措施可能会让市场主体在选择研究方向时变得更加保守,导致一些可能具有引领性的技术因为监管的不确定性而无法得到充分探索和发展,引发“不发展就是最大的安全”的悖论。但是,人工智能的一系列特质又决定了放松监管会带来较大的国家和社会安全隐患。特别是,全球范围内的大模型竞赛使得人工智能立法对监管力度的把握变得非常微妙。有观点认为,哪个国家掌握了最先进的人工智能,谁就拥有了选择“对齐”哪种人类价值观的权力。最新出台的欧盟《人工智能法案》试图以风险分级的模式降低人工智能企业的义务,即便如此,仍有超过150位欧洲企业高管持反对意见并签署公开信,认为该立法案将危及欧洲在大模型领域的竞争力和技术主权,无法有效应对来自国际层面的挑战。因此,在“不发展就是最大的不安全”成为社会共识的前提下,人工智能立法监管在价值基础上必须从人民的根本福祉出发,实现安全与创新之间的平衡。
我国立法始终以人民为中心。人民是现代性观念,作为启蒙时代的产物,它的一个重要意涵在于,是人而非上帝成为立法者。因此,以人民为中心包含了以人为本的精神。维护人工智能的技术安全与促进技术创新是以人民为中心这一理念下的两个子原则,二者辩证统一、相辅相成。维护人工智能技术安全保障的不仅是短期的技术应用利益,更是鼓励创新和可持续发展的长期赋能效益。为了找到技术安全和技术创新的平衡点,我国的人工智能立法应当成为一套具有时间曲线的法律体系。
在人工智能技术开拓创新时期,立法要充分考虑技术发展的不确定性,在不触及国家和社会根本安全底线的基础上,政府应承担促进义务,使企业获得更多的自主权。在技术进入迭代更新时期,立法应注重安定性、融贯性,筑牢各领域安全的篱笆,向保障消费者合法权益倾斜。在技术进入成熟期和缓慢成长阶段,立法应注意维护市场公平竞争,限制和反对垄断,为培育和孵化新技术创造生态。
告别意志论的养成主义伦理治理模式
为应对安全与创新平衡的挑战,立法监管面临着一种新型复杂局面,伦理、法律和技术等多种规制理念与手段需要交叉综合运用。无论是立法规制,还是设定相应的技术规范,伦理治理的思路都必须被融合其中。然而,数字人本主义固然要遵循,但如前述,在西方传统里,人民替代上帝成为立法者,人民概念里包含着很强的意志论思维,在人-机共生的中国语境下,需要有新的伦理治理思路。我国《新一代人工智能伦理规范》规定:“将伦理道德融入人工智能全生命周期。”这一表述意味着,我国采用了新型伦理治理模式,即一种贯穿于人工智能的训练、形成到运用全过程的“数据—向善”“缺失—填平”以及“失范—纠正”的养成主义伦理模式。
在新一轮的图灵测试中,ChatGPT-4的表现虽然与人类仍有辨识上的差距,但其通过率已高达 54%,这种模仿游戏已经在一定程度上证明其拟人化工作的成功。美国哲学家约翰·塞尔在20世纪80年代通过“中文房间”思想实验(the Chinese Room Argument)就对此提出过质疑,他认为,人工智能在本质上与人是有差距的,人工智能不等于也不能完全替代人。但是,人工智能科技的飞速发展与运用,充分表明以人工智能为代表的硅基生命在存在论意义上具有自身独特的代具文化。若希望维持人-机的共同存续与良性互动,人类固有的伦理价值必须被保护,硅基生命的代具文化按照人的伦理来塑造,“数字人本主义”的伦理理念必须得到遵循。
(“中文房间”实验)
从技术路径上看,生成式人工智能主要走的是以贝叶斯优化的经验概率为主的路径。面对生成式人工智能,一些人无意识地采用了意志论下的生成主义治理模式,即认为当人工智能软件或硬件制造出来之后,再对其进行人文主义约束,此种控制理论表面上希望为人类与机器一起生活的伦理方式提供一个场域,实际上是增设了一个机器赛道与人并驾齐驱,导致了人机对抗。事实上,这种意志论生成主义伦理模式与生成式人工智能的经验概率逻辑并不相符,与后者相适应的是人机互动的新生产模式,它需要的是一种可突破单纯形式法治和决策型技术主义路线的新伦理治理方案。据此,告别意志决断论的生成主义思维,结合中华优秀传统文化的养成主义伦理模式更符合贝叶斯经验概率的路径。也就是说,对于生成式人工智能来说,数据集、训练机制以及影响训练者本身的人文环境及其伦理内涵成为贝叶斯优化中高概率的语言文化组合,对人工智能的伦理养成产生关键性作用,可以形象地称之为人工智能机器的“伦理养成之家”。
当前来看,立法监管所力求避免的伦理“缺失”与“失范”,实际上是人工智能从数据训练到技术应用无意识地遵循意志论的生成主义思维所致。比如,人工智能系统常被设计为具有自主决策的能力,而缺乏伦理规范就可能使其做出错误的判断或决策,对人类利益造成严重的不可逆损害;使用人工智能进行数据收集会增加数据泄露和滥用的风险,侵犯个人隐私权;算法标记的路径依赖和“大数据杀熟”导致人工智能系统存有性别、地域、种族等偏见,侵犯人类的平等价值与尊严。一些学者就此提出“填平”“纠正”的解决方案,目的是为了确保人工智能的工作目标和行动与人类价值观保持一致,也就是实现“价值对齐”。其中,人类价值观的实际内容还在于设计者所输出的意图和目标,即“设计者伦理品质”问题,这就涉及跨国家、跨地域和跨文化等问题,这都要求从意志论生成主义的思维束缚中解放出来,开辟顺应中华文化和伦理的养成主义伦理治理模式。确切地说,即使人工智能能够以简单博弈等方式充分再现自然选择过程,满足形成的价值系统生成的进化条件,它充其量也只是具有某种特殊偏好的“道德主体”。无论是发展人工智能自身的代具文化,还是按照人的主体性塑造人工智能,都意味着摒弃意志论生成主义的科技产品思维,法理上则是跳出法律与道德二分法的思维定式,对人工智能的生产者、人工智能的数据内容以及人工智能的行动加以规制的法律,应直接体现人类自身的伦理价值,以“人文化成”的养成模式教化出具有人伦特质的人工智能。
立法中养成主义伦理治理的制度内涵
从世界范围看,尽管人们已就技术伦理与社会伦理的技术实现达成了诸多共识,但基于人工智能的特质将既有的科技伦理框架转化为有效的法律治理方案尚存争议。在英国学者罗杰·布朗斯沃德看来,进入法律3.0时代,技术主义框架下的规制手段将与融贯主义的法教义学、规制工具主义的法政策学共存,形成一种混合法律思维状态。为完成以预测和事前防止替代事后的惩罚、补偿或恢复,法律监管必然愈发具有技术主义的色彩。表面上看,这种设想是强调提前介入强化监管,实则表达了人工智能的特质,即它不仅是一种劳动工具要素,还是一种劳动者要素。如前所述,当人工智能作为劳动者或劳动者要素参与到人类生产和生活当中,国家立法采取养成主义的伦理治理模式就至关重要。
早在2019年,国家新一代人工智能治理专业委员会就发布了《新一代人工智能治理原则——发展负责任的人工智能》,提出八项原则。随后,《网络安全标准实践指南——人工智能伦理安全风险防范指引》《新一代人工智能伦理规范》(2021)和《生成式人工智能服务管理暂行办法》也相继出台。从内容上看,这一系列文件已经初步展示出我国就人工智能治理所采取的基本模式以及提出的伦理原则方面的要求。当然,我国目前还未制定出一部完整系统的《人工智能基本法》,所以还没有综合性的国家制定法对人工智能伦理治理模式给予权威的选择与确认。可是,这里也包含一个悖论,即在人为自己立法的范式框架内,伦理被认为与法律不同,伦理只是作为判断法律之道德性和合理性的标准而作为论证理由使用。故强调科技伦理先行是积累人工智能实践的社会经验,为立法选择与设定伦理监管模式提供先期尝试。实则不限于此,科技伦理先行之外,需要重新定位人定法与人-机共生的伦理之间的结构关系,从而达成新的伦理共识,制定出符合人工智能本质属性的人工智能基础立法。为此,中国社科院法学所牵头起草的《人工智能示范法2.0(专家建议稿)》做了一次极为有益的尝试,它结合中华优秀传统文化,采用了中国的伦理养成主义治理模式,构造了一个新型法律与伦理的关系框架,具体体现为:
建议稿将诸如人文主义、人机共生、技术安全等伦理治理原则贯穿于立法的结构、总则与具体内容之中,使得人工智能在每个主要环节都得到伦理规范的塑造,养成为一个具有人文伦理素养的劳动主体或主体要素。首先,在结构上,《人工智能示范法 2.0(专家建议稿)》采取了总则—分则模式,总则部分主要是明确了立法目的与治理原则,使得分则的具体规定在实质的伦理内容上有所附丽;分则结合不同责任义务主体和发展人工智能的流程为伦理治理的各个环节提供规则支撑,并为应对未来的发展变化预留出足够的空间。其次,在总则里,立法依据、适用范围与总的治理原则点明了该法以人民为中心、坚持安全与创新的主旨,以人为本原则表明该法秉持将人工智能的整个生命周期处于人类控制与监督之下的理念,而后这些主旨和理念所凝聚的伦理共识贯穿于第5条到第13条的原则之中,特别是第14 条明确规定:“从事人工智能研发、提供和使用活动应当……尊重社会公德和伦理道德”。最后,在分则里,从国家对发展人工智能的支持与促进,到人工智能的研发,再到人工智能的综合治理,都遵循着伦理养成主义的基本思路。如在支持和促进部分,包括数据要素供给(第18条第2 款),专业人才培养(第20条)、财政支持(第 21条)、人工智能特区建设和授权立法(第24 条)以及负面清单设置(第25条—第33条)等,都是意在构建整体良好的人文环境和生态;在研发部分,无论是与安全性相关的义务(第34、35 条),还是审计义务(第36条)和风险管理义务(第41条),都与数据、语料和模型等要素的审查监管有关,伦理合规性是其中一个重要判断标准。建议稿采取了有效措施确保可以随时采取介入、接管等措施,以避免歧视和偏见。对于人工智能研发者,更是强调了数据投喂和模型建设等应遵守的伦理原则。在综合治理方面,建议稿特别强调了伦理审查义务(第42条),并设置了专门的伦理审查委员会(第55条)。可见,从总则开始到第五章的整个治理方案,正类似于国家和监护人对未成年人的养成和监管,形成了一个“环境营造—风险防控—习惯养成—责任追究”的养成主义伦理治理链条。
当然,为了更加完整地贯彻伦理养成主义的治理模式,塑造出一个更加完整的法律与伦理的新制度结构,还可在建议稿中增设一些章节与条款。第一,可在人工智能立法中专章设置“充分尊重和保护人权”,要求项下的各项基本权利(主要针对使用者),也即扩大《人工智能示范法2.0(专家建议稿)》第14条的保护范围,确保技术的发展不损害人类的尊严和权益,结成一条不可触碰的保护绝对价值的红线。第二,在相应的章节可适当增设人工智能使用者的义务,进一步明确研发者—使用者—提供者这一三层主体共生的伦理结构,加强对使用者身份的核实,实施实名制,避免其采用不符合伦理要求的使用方式。第三,可用劳动权益保障的思路处理人工智能的数据处理和标注等问题,确保人工智能沿着造福于人类公共福祉的方向有序、高效、可持续发展。
有学术的思想 有思想的学术
聚焦中国问题
秉持人文立场
人文社科学者的平台
欢迎一起“探索与争鸣”