李学尧 | 人工智能伦理审查制度的立法思路 | 推进有未来感的人工智能立法⑥

学术   2024-12-12 17:44   上海  

◆ ◆ ◆ ◆

上海市社会科学界联合会主办主管

有学术的思想  EXPLORATION AND FREE VIEWS

官网地址     http://www.tsyzm.com

◆ ◆ ◆ ◆

目前本刊只接受《探索与争鸣》网站投稿。请收藏唯一真实官网地址www.tsyzm.com。原编务邮箱tsyzm@sssa.org.cn停止使用,原投稿邮箱tansuoyuzhengming@126.com为编务邮箱和应急邮箱。原创文章,未经授权,谢绝转载,如需转载请留言。



人工智能伦理审查制度的立法思路

李学尧|上海交通大学凯原法学院教授、

法律与认知智能实验室主任

本文原载《探索与争鸣》2024年第10期

具体内容以正刊为准

非经注明,文中图片均来自网络


李学尧教授


人工智能伦理与生物医学伦理具有对称性、延续性的关系,但人工智能伦理的责任主体、审查对象,及实质性原则和规则(如自主原则)的问题意识及其权重都有异于生物医学伦理。生物医学伦理审查过程体现为“大众道德直觉”与“无法禁止的技术创新”之间的妥协,人工智能伦理审查仍有此性质,但其“大众道德直觉”可以通过技术途经直接落实。人工智能的伦理挑战主要集中于部署和应用阶段,而生物医学伦理主要聚焦于研发和开发阶段。由上述分析而得,人工智能伦理审查制度宜在科技伦理治理框架内单行立法,并在伦理审查责任主体、审查启动条件、专家构成、议事规则以及审查结论的法律效力等方面采取有异于生物医学伦理的立法思路。


从生物医学伦理制度寻求启示 

2022年国家网信办颁布的《互联网信息服务算法推荐管理规定》第7条,是我国立法意义上构筑人工智能伦理审查制度的开端。2023年7月,国家网信办等7部委颁布了《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)则在实体法规则意义上例举了人工智能伦理的相关原则。随后,科技部等单位还颁布了具有规范性文件性质的《科技伦理审查办法(试行)》(以下简称《伦理审查办法》)并在附录“ 需要开展伦理审查复核的科技活动清单”中例举了必须开展人工智能伦理审查的几种情形。


(关于印发《科技伦理审查办法(试行)》的通知)


如今,对于各级监管部门以及合规主体来说,如何将人工智能伦理从道德原则框架转化为可操作、可预期、可计算的伦理合规实践,是一个亟待解决的实务问题。近来,中央有关部门正在就制定专门的人工智能伦理审查规定的议题通过多种方式征求各界意见。那么,我国该如何在“可操作、可计算、可预期”的思路下构建人工智能伦理审查制度呢?鉴于生物医学伦理及其伦理审查实践较为成熟,可以将其作为重要的借鉴对象,展开相关的讨论。大致上,可以从四个方面展开论述:第一,两者具有怎样的共同点。第二,两者有什么区别,人工智能伦理具有什么特征。第三,生物医学伦理的制度实践及其理论讨论有什么教训需要吸取。第四,生物医学伦理的制度传统有哪些方面可以被人工智能伦理实践直接继承、学习。


人工智能伦理与生物医学伦理的延续性

在应用伦理学界一直存在争议的是,人工智能技术的发展是否提出了新的、独特的伦理问题,抑或人工智能伦理只是重复了在更成熟的领域,如生物医学领域遭遇的相同伦理困境?对此,大部分曾经研究生物医学伦理的学者都会论证两者之间存在高度的一致性或者延续性,并认为其应统合在应用伦理学的理论体系之中。


如果对生物医学伦理通说的四大原则,尊严、有利、无伤以及公正,与各国立法和政策文件以及学术界所列的人工智能伦理实体原则进行比较,确实可以得出这样的结论:人工智能伦理与生物医学伦理的基本原则存在较强程度的对称性和一致性。(见表1)换言之,在法律框架内,可以采取类推等方式,从生物医学伦理审查的实体性规则中,推导出人工智能伦理审查制度的相关原则和规则。



人工智能伦理与生物医学伦理的差异 

上文反思了过于强调人工智能伦理独特性的思路。但是,在伦理审查的实务中,也需要警惕完全将生物医学伦理和人工智能伦理视为一体,并在人工智能伦理合规实践中简单复制生物医学伦理审查实践的保守主义思路。笔者曾运用“事物本质”的概念工具,初步归纳了人工智能伦理因其技术特征而区别于生物医学伦理的三大制约性条件:道德规则的技术可嵌入性、更强的场景性以及依赖于技术过程的程序性。此处沿着该文中的理论延长线继续展开讨论:


第一,合规主体上伦理责任主体单一性和“泛化”的差异。除了研发者、提供者以外,人工智能的使用者将成为伦理挑战的重点;而后者的范围可以将其理解为全世界所有的自然人和非自然人主体。不同主体对人工智能伦理的使用,一方面可以指数式提高整个社会的运转效率,但另一方面,其引起的伦理争议是纷繁复杂的,将其排除出伦理审查范围是不可想象的。换言之,和生物医学伦理相比,人工智能几乎适用于任何人类活动,这为其使用提供了无数的可能性,决定了其不可能类似生物医学伦理一样可以简单地还原为科研人员或者医生的职业伦理。它会挑战所有领域的人类业已形成的伦理道德规则,而所有的使用者都有可能成为潜在的伦理挑战者。



当然,这会引向两种讨论:一是人工智能使用阶段的伦理冲突,最终可能需要或者可以通过立法程序或者司法审查来实现,但考虑到具体应用场景的复杂性、不确定性以及效率提升的需要,可以通过各种形式的法律授权,将伦理审查的义务授权给平台型和公共管理型使用者、将伦理困境解决的大部分义务配置给自我监管主体依法成立的伦理审查委员会。二是需要区分因科技创新引发的不同类型的道德困境场景。电影《我不是药神》中的伦理争论是由仿制药是否可以与如何使用引发的,但其困境的产生根源是行政秩序维护与治病救人的价值冲突,而不是这种技术是如何影响个人和人类自主权的问题。


(电影《我不是药神》)


第二,合规内容上原则和规则侧重点的差异。以自主性原则为例,毋庸置疑,人类集体和个人的自主性是人工智能伦理原则的关键。一是个体自由意义上的自主权,包括对隐私、财产权的保护等;二是人类整体意义上的自主性,包括高度自主的人工智能系统应被设计成可以确保其目标和行为在整个操作过程中与人类价值观保持一致。尽管传统生物医学的技术研发及其应用,比如致命生物武器也可能引发人类整体被灭亡或者被其它非人类控制的危险,但人工智能系统可能会接管、威胁整个人类自主性中所体现的伦理挑战,并不是传统生物医学伦理面对的重点。


再以正义原则为例。由于人工智能系统深刻地介入并逐渐替代人类决策,它与生物医学技术本身只是决策对象、利益分配对象有着本质的区别。所以,生物医学技术的研发最多涉及分配正义,且一般是再分配阶段所考虑的内容,并非研发阶段所需思考的对象。但人工智能系统的运转本身就会消解或者异化已有的法律程序制度。比起以往应用伦理学领域处理的所有研究对象,人工智能的应用及其对社会的变革性影响更加广泛、深远。所以,每一个前沿性人工智能技术的研究、开发、部署以及使用,都有必要从人类正义或者人类现存社会秩序能否得以延续的角度展开自我审查。


第三,合规对象上“非道德性”和“有道德性”的分野。人工智能伦理与生物医疗伦理的审查对象的最大差别在于“非道德性”和“有道德性”要求。近来,国际上人工智能原则的实质内容逐渐被凝炼阐述为“可信任原则”,而“可信任”实际上也可以转述为“有道德性”的表述。


在生物医学领域,非人工智能技术意义上的生物医学技术和产品,具有鲜明的“非道德性”特征,因此可以在法律合规中较顺利地应用“技术中立原则”。人工智能与传统生物医学研发和应用的区别是,它的产品和服务不只是硬件设备,而通常是极其复杂系统中的程序和应用程序,如健康和福利数据生成系统、税收系统。因此,对于人工智能技术和产品,特别是生成式人工智能系统,显然难以再简单地适用技术中立原则。


人工智能伦理审查制度构建的要点 

通过上述分析,我国人工智能伦理审查制度的立法思路可以从以下方面展开。


第一,立法模式。通过前文分析,人工智能伦理的立法有必要与生物医学伦理的立法进行区别。人工智能伦理审查制度宜在科技伦理治理框架内单行立法,并在伦理审查负责主体、审查启动条件、专家构成、审查结论的法律效力和议事规则等方面做出有异于生物医学伦理的规范要求。



具体来说,就是要在现行的伦理审查体系中,在主要基于生物医学伦理审查场景的《伦理审查办法》之外,尽快起草一部专门针对人工智能伦理的平行性行政规章或者规范性文件。目前,有一种立法思路是,将《伦理审查办法》作为相关人工智能伦理审查制度的上位法。由于已有的“科技伦理”及其相关伦理审查制度(比如委员会构成)都承继了“生物医学伦理审查”的制度,为了防止后者审查思路带来的不可知的惯性思维,很有必要在短期尽快起草一部不受《伦理审查办法》限制的规范性文件或者行政规章。考虑到人工智能伦理原则的实操性关涉中国人工智能技术和产业的竞争优势,且涉及大量的程序性规范、授权性规范,因此很有必要在中短期起草一部单行性的《人工智能伦理法》,并在时机成熟时,将其作为通用型的《人工智能法》专章内容进行拟制。


第二,具体条款内容。鉴于人工智能伦理的嵌入性、场景性以及程序性特征,使得其更需要自下而上、演化型的规则生成模式,所以,在具体伦理裁断场景中,工程师与伦理专家、法学专家的有效沟通、对立性对抗、达成共识并最终转化为行为极其重要。因此,在伦理审查相关条款的设计方面,不宜将过多的条款设计资源放在实体性伦理原则的内容设计,而是应在关注程序性的视角,注重三种条款的设计:


一是关于伦理审查委员会的设置主体、职责内容和责任配置。一方面,不同于生物医学技术,人工智能技术的研发主力逐渐转变成了企业,而非高校和科研机构。因此,伦理审查委员会的主管部门应从科研机构和高校的主管部门主导,转变为由工业和信息部门主导。另一方面,从专家权力与行政权力等权力合理分配的角度,对其做更多的授权性条款设计。同时,也要配合明确人工智能伦理治理过程中的“平台型开发和应用企业”的守门人责任,并对其自我创制的相关规则进行授权性确认。


二是关于伦理审查委员会的组成。为了更好地形成“对立面设置”,应对委员对选聘、构成、资格及其成员动态调整等做重点设计。其中,考虑到“有道德人工智能”的人工智能伦理审查目标及其技术可实现性,在伦理审查过程中,应注重增加人工智能技术专家的比重。人工智能伦理审查仍有“大众道德直觉”的特质,但可以通过技术途经直接落实,这应该在伦理审查委员会的资格和构成中得到体现。


三是关于伦理审查委员会的议事规则。应注重评议程序、决策程序的设计。与第二点相关的是,鉴于人工智能伦理可嵌入性的技术化需求,在评议程序设计中也可以设置适合技术化的讨论流程,以防止出现伦理审查程序空转,最后沦落为“大众道德直觉限制人工智能技术进步”工具的问题。


四是关于人工智能伦理审查程序启动的条件。不应将人工智能伦理审查的重点只放在研究和开发阶段、将责任主体只识别为研发者和提供者,应更多地将伦理审查责任配置给使用者,特别是决策型人工智能系统的行业使用者或者平台型使用者。这种伦理审查重点的转变,既是人工智能技术的特质所引发的,也是更好促进人工智能技术研发及其产业发展的责任优化配置的需要。


有学术的思想 有思想的学术 



聚焦中国问题 

秉持人文立场

人文社科学者的平台

欢迎一起“探索与争鸣”




目录 2024.11 |2024.10 |2024.09 |2024.08 |2024.07 |2024.06 |2024.05 | 2024.04 | 2024.03 |2024.02 | 2024.01 |2023.122023.112023.102023.092023.082023.072023.062023.052023.042023.03| 2023.02 | 2023.01|2022.12|2022.11|2022·10| 2022.09|2022.08|2022.07|2022.06|2022.05|2022.04|2022.03|2022.02|2022.01热点区块链|未成年人犯罪|5G|《长安十二时辰》|知识付费|留守儿童|巴黎圣母院大火|《流浪地球》|开放二胎|“佛系青年”人物鲁迅|施蛰存|王元化|费孝通|陈旭麓|金庸|哈贝马斯学者陈平原|杜维明|葛剑雄|何怀宏|季卫东|罗伯特·帕特南|沈志华|王汎森|乐黛云观念天下|祖国|信任|“五四·青年”|人文危机|涂层正义|全球文明专栏重识中国与世界|城市与文明|人工智能与未来社会会议数字加密货币|江南文化与城市发展创新“科幻景观·文化· 媒介”学术论坛|大学治理使命网络时代知识付费与知识获取| “城市与情感”第二届中国城市问题(上海)论坛青年论坛青年第三届全国青年理论创新奖|第二届全国青年理论创新奖|精彩感言|优秀青年学人支持计划·第一期|优秀青年学人支持计划·第二期|青年学人优秀论文支持计划  学术圈  学术写作|高校工作时间|学术晋升机制|假期|救救博士生|“青椒”的焦虑|学术圈的“第三世界”|开题报告怎样写

探索与争鸣杂志
探索与争鸣杂志,以学术为底色,以思想为旗帜:聚焦中国问题;追踪改革大潮;秉持人文立场
 最新文章