王秀平:人工智能司法应用法律风险及法治应对

文摘   社会   2024-04-18 23:08   山东  

【内容摘要】202211月底,OpenAI发布ChatGPT2024216日,OpenAI又发布了Sora,呼啸而过的科技带来的是一个新时代。人工智能的司法应用在辅助机制方面确有实际效用,但也引发了算法不透明、决策权重配置、裁判规则僵化、对司法权威的损害等诸多司法实践难题。法律风险需要法治应对:首先,数据隐私和安全需建立严格保护机制;其次,人工智能决策可能不透明和不公正,需要可解释性和透明性技术确保公正;再次,人工智能可能存在歧视和偏见问题,需要数据治理和审查减少影响;最后,人工智能应用可能挑战司法程序的公正和人权保护,需通过法律和伦理规范解决。应当坚持司法主体责任,允许实验性设置决策权重,保持制衡并强化人机交互决策制度在人工智能司法中的体系定位,力求扩大和完善人工智能司法应用的制度功能与法律规范供给。



【关键词】人工智能 司法应用 法律风险 法治应对


文章来源:《政法论丛》2024年第2期

因篇幅所限,省略原文注释及参考文献。



数字时代正在涌现各种数字智能技术,如5G、人机交互、AI、区块链和大数据等,成为数字空间的核心性技术。同时,应用场景和深度合成技术,如DeepfakeChatGPT、元宇宙和Sora等也越来越受到关注。ChatGPTOpenAI推出的一种人工智能技术驱动的自然语言处理工具,具备语言生成、上下文学习、已知知识储备与输出等功能,ChatGPT已经适应了人类的表达预期,信息获取和人机交互的方式已经被极大地改变。传统的社会治理模式必然会被数字时代的发展逻辑所颠覆,在法治轨道内形成和发展新质生产力,以人工智能技术的极致未来感,感受新质生产力的澎湃动能。人工智能司法应用在提升管理质量、促进司法效率、深度融合辅助司法裁判等领域,这些技术的出现为司法的创新性发展提供了前所未有的推动力量,对数字社会法治建设的进程起到了有效的促进作用。在司法领域应用人工智能时,需要将人作为中心,充分发挥人工智能的积极作用,同时注意其负面影响。对于司法人工智能的应用,权利保护至关重要,这一过程要防止技术侵权损害司法公信力,同时避免技术带来的权利不平等,并警惕技术蒙昧主义对权利意识的破坏。从内外两个角度看,司法人工智能的构建是技术赋权的本质,同时也必须与创新系统和秩序系统形成有机整体。


一、人工智能司法应用的理论供给与价值意蕴


(一)人工智能司法应用的现状检视

人工智能在司法中的引入引发了诸多争议,其中关于人工智能是否能够增强司法裁判准确性的讨论尤为突出。虽然人工智能具有黑箱决策的特性,可能剥夺或减少人类司法决策权,但人工智能司法具有诸多角度的优势:首先,人工智能司法更容易被社会接受,由于其决策过程是基于算法和数据分析,相对于人类法官的主观判断,人工智能司法的判决更具客观性和公正性,从而增强了可接受性;其次,人工智能司法能够快速处理大量的法律案件和文书,提高了信息整全性和信息筛选效率;再次,人工智能司法应用还能够减少人为因素的干扰,降低了司法错误和不公正的风险,进而提升了社会效果,尤其在对机器有较高信任程度和文化背景的国家,人们更可能接受机器审判并认为其更为准确公正。虽然人工智能司法在某些方面能够为司法决策提供支持和参考,但是在实践中仍需谨慎,因此,平衡人工智能与人类司法者的角色划分,力求最大程度发挥人工智能在司法领域的效果。

人工智能在信息筛选方面具有更高的效率,人工智能可以被分为强人工智能和弱人工智能,设计良好的人工智能系统可以从收集相关案例的角度,为司法者提供有效的基于差异性和相似性的参考信息和类案建议,防止迷失在在浩瀚的信息中。人工智能在社会效果评估和判断社会风险方面发挥着重要作用。在美国和英国等国家,人工智能软件被广泛应用于风险评估中,虽然并不能带来法律层面的绝对准确性,但在信息筛选和社会效果评估方面仍具有一定优势,能够提供更加准确的风险事实判断,有助于减少再犯率,通过法律数据库系统为法官、检察官、律师和学者提供更为全面的法律信息,人工智能辅助司法已经存在并逐渐成为司法领域的重要工具。在法治化、数字化、智能化的新时代,推动依法治国和以数治国相结合,毫无疑问是一种顺应时代发展的新方式,是国家治理现代化的必然选择。

(二)人工智能司法应用的实践模式

人工智能在司法领域的应用已经取得了显著进展:人工智能的客观性有利于提升类案处理的统一性,可以帮助消除司法决策中的主观倾向。近年来,在智慧司法和智慧法治顶层设计的推动下,各地法院开始积极推进在审判领域广泛展开人工智能司法应用工作,运用最新的技术工具快速提升司法能力。江苏法院实现人工智能辅助系统全覆盖,提供智能分析、自动归纳等功能,有效提升司法效率;人工智能的全面性有利于弥补认知判断的局限性,可以帮助法院更好地处理信息和风险:江苏法院的特殊代理人风险预警系统和杭州互联网法院的法官画像分析系统,都能帮助法官更好地应对案件和提升办案效率。通过智能辅助办案工具的应用,司法机构能够更高效地处理案件、提高审判质量和效率,从而推动司法体系的现代化发展;人工智能司法应用技术不仅能够减轻法官的工作压力,还能够提升司法运行的效率和公正性,为当事人提供更好的保障和司法服务。进入大数据人工智能时代,“数据法院、智慧法院”成为新一轮技术革命在法院落实的最好注脚。虽然人工智能具有防范冤假错案、提高司法效率、预防司法腐败的显著客观作用和价值,但对人工智能需有清醒认识,它不可能取代或代替法官办案。

(三)人工智能司法应用的发展策应

生成式人工智能(AIGC)的快速发展,给传统的审判模式带来结构性与根本性的变革,对其赋能过程进行考察和分析,具有积极的现实意义。在智能化司法阶段,AIGC在赋能智慧法院提升效率、加速科技与司法融合、督促司法队伍素质提高的同时,也带来了权力专属性原则面临挑战、司法数据不充足、算法歧视和算法黑箱等风险。为厘清AIGC 赋能智慧司法建设困境的具体原因,可从人工智能技术的固有缺陷、技术的权力属性、案例数据的弱标签化三个方面着手,提出增强司法系统的技术掌控能力和算法决策的可解释性,建立统一的现代化司法案例数据库,并推行跨学科的复合型法律人才培养等针对性建议,以促进中国式司法技术融合情理的现代化发展,充分发挥生成式人工智能赋能智慧司法的功能。

1.人工智能挖掘力促进司法应用的可预测性

江苏高院还研发了司法大数据智能分析平台,运用大数据分析、自然语言处理等技术,建设了裁判文书全文分段检索、态势分析生成器、报告引擎、内网新闻数据查询、数据多维比对、数据大屏等功能。虚假诉讼智能预警系统也由江苏高院开发,通过自然语言处理、大数据、云计算和智能算法技术,关联和拓展核心的风险人员,针对民间借贷纠纷等八类案由,系统能够智能识别相关案件和风险人员,实现虚假诉讼的自动预警、科学认定、源头防范和精准打击。在数字经济的潮流中,面对人工智能的兴起与带来的改变,接纳与创新应用是不二之选。人工智能司法应用确实可以提高精准性和司法效率,但也需要防范算法透明度和数据隐私等法律风险。

2.三力合一实现人工智能司法应用

国家信息化发展战略纲要中的新一代人工智能发展规划提出了加强人工智能司法应用的明确目标,最高人民法院则发布了《关于规范和加强人工智能司法应用的意见》,国家对人工智能司法应用的顶层设计进行的支持和引导为人工智能在司法领域的应用提供了指导和规范,为智慧法院的应用和研发提供了持续指引和动力。司法大数据的丰富程度对人工智能的发展起着重要支撑作用:全国法院实现了互通互联的专网,每年受理的案件数量庞大,各类案件数据自动转移汇聚在大数据服务和管理平台,其中包含了各类领域宝贵的裁判规律和司法经验,最高人民法院2024227日召开新闻发布会,宣布人民法院案例库正式上线并向社会开放,且广受关注的裁判文书网并不会关闭,都为人工智能司法应用的发展提供了丰富的实践资源;人工智能技术的快速发展也推动了人工智能在司法领域的应用:近年来,人工智能技术经历了从强计算弱智能到强智能的转变,智能机器更加强大的数据处理能力得益于算法和算力的快速发展,更高效、更精准的输出结果推动着人工智能司法应用的建设,提高了其质量和效率。

现代法治中的司法决策本质上是一种规范性活动,无论是人工智能或是人类,法律解释和推理都伴随着价值判断,在确定解释方法和进行推理时,需要考虑立法意图、法律目的以及当下公众预期等因素,人工智能系统大致可分为基于规则的专家系统和预测性算法,其中规则系统主要由数据库、知识库和推理机组成,而预测性算法通过训练和概率算法提高决策准确性,在人工智能司法应用中,司法决策的规范性使其不同于计算性或预测性技术,人工智能司法更接近于“代码即法律”或“规范性科技”概念,其特殊性在于司法决策权转移到代码或设计者手中。基于提高司法效率、提升审判质量、规范办案流程的目标,目前,人工智能主要应用于信息的搜集和转化、协助裁判决策以及审判监督管理,司法人工智能的技术效应存在限度,对内存有法律内在实质正义实现的隐忧; 对外则存在质高量足数据收集的壁垒,究其原因,从法理维度看,司法理性与技术理性之间的矛盾难获弥合; 从实践维度看,在司法领域,平衡司法工作人员主观导向和智能技术应用的难题仍然存在;在技术方面,机器算法的黑箱障碍是一个难题。需在设计和优化司法人工智能应用时设定明确的边界。在基本立场层面,应尊重司法价值和效果,以司法逻辑为主导而非算法逻辑。在技术保障层面,以算法和数据为着力点,改良司法人工智能整体生态。


二、人工智能司法应用的法律风险与背反效应的省思


在司法领域,人工智能的主体地位尚未得出明确结论,但主体认定在法律逻辑上至关重要,若继续遵循传统逻辑而不承认人工智能为主体,可能会导致界定相关案件的权责体系变得混乱。当人工智能应用于司法实践时,参与审判案件的责任如何界定?基于人工智能的预测而导致的不公平后果应由谁承担?如何对人工智能进行追责?继而引发数据隐私与安全、伦理道德、算法歧视、公平正义等新一轮质疑,这些都是人工智能在司法实践中面临的问题与风险。

而背反效应则是指一种现象,表示当试图实施一项政策或措施来解决某个问题时,反而导致了与预期效果相反的结果,这种效应可能是由于人们对政策的反应与预期不同,或者是由于政策实施的方式或环境因素导致了出乎意料的结果,背反效应的出现可能会对政策的有效性和可行性造成负面影响,因此在制定政策或实施措施时,必须考虑各种可能的反应和结果,以避免出现背反效应。

(一)基于司法本体论的审视

从司法本体论角度看,人工智能司法应用的背反效应源于对实质正义关注不足,而过度追求数字化考核指标以及“锦标赛”式的司法推进。法律面前人人平等是基本原则,赋予人工智能法律主体地位意味着法律必须同等对待人工智能和人类。亦即必须动用人类自身的资源对人工智能进行与人相同或者类似的法律保护,从而与法律对于人类自身利益实现的宗旨完全相悖。人工智能在裁判辅助、司法管理辅助和事务辅助中所引发的背反效应,都与司法本体中的实质正义、法官主体性以及审判过程中的个体正义有着本质的矛盾,因此,在推进人工智能司法应用过程中,需要充分考虑司法本体的价值取向,坚持以司法为本,保障法官的独立裁量权和司法正义。

(二)基于司法认识论的审视

在诉讼过程中,司法审判被大陆理性派和英美经验派视为理性应用的过程,人工智能缺乏对经验理性主义的整合,这是导致背反效应的主要原因。其中大陆理性派强调理性知识的演绎法则,而英美经验派则认为理性知识来源于感觉经验,然而,人工智能在裁判辅助、管理辅助和事务辅助中忽视了对经验理性的关注,转而侧重于技术理性。智能模型的黑箱系统和算法模型的不可解释性导致了人工智能应用的非理性特征,使得人类经验在司法领域中被忽视。因此,人工智能司法应用出现背反效应的原因在于过度关注技术理性,而忽视了经验理性,导致司法裁判中人的主体性逐渐被技术取代,在推进人工智能应用的过程中,需要平衡技术理性和经验理性,确保人工智能的应用不脱离人类经验和正义的核心价值。

(三)基于司法方法论的审视

法律活动的本质在于准确确定事实并精确适用法律规范,这些过程都不可避免地依赖于法律的可解释性,司法裁判过程涉及对案件事实和法律规范的解释,其中对证据的解释和对法律的适用都需要法学研究和解释方法的支持。的确,算法的复杂性已是横亘在公众面前的一座难以逾越的高山,若再加上机器学习的复杂与多变,无疑是“雪上加霜”。数字世界里的算法无处不在,然而人工智能司法应用所依赖的算法模型却缺乏可解释性,在深度学习领域,智能算法的决策过程无法被解释,即使是设计者也无法准确解释其决策原因,人工神经网络的结构在决策过程中存在隐层和大量数据决定了决策过程理解的困难度。依赖于大量数据积累的相关性来构建认识规律的智能化算法模型,其输出结果难以解释且具有不确定性,裁判过程从依法庭审转变至不可解释的自动化算法,导致对算法模型责任性和科学性的关注增加,人工智能司法应用呈现出法律领域中的背反效应。技术革新并不足以颠覆人工智能在司法应用中辅助审判的基本原则,人工智能需对程序性事务与实体性事务区别对待,慎入诉讼后阶段的审判权行使活动,以此保障人类法官公正、独立、自由地进行司法裁判。


三、人机交互决策的功能构造与制度设计


(一)司法实践中人机协作中“人”的范围界定

有不同观点认为“人”仅限于法官,也有观点认为应该包括诉讼参与人在内,广义的“人”概念应该包括法官和诉讼参与人,这是基于智慧司法设立的宗旨和优化智慧司法的考量。智能系统推送的结果是各主体工作交互后的产物,每个主体均在不同且相互关联的环节中发挥作用。智慧法院建设的宗旨是以人为本,为服务司法并提供更便利的司法服务。因此,人机协作中的“人”应该包括法官和诉讼参与人,以确保提供精准的司法服务和形成合力,共同推动智慧法院建设。

(二)司法实践中人机协作中“机”的范围界定

在案件审判过程中,通过文字识别将当事人提交的起诉书、答辩状、证据材料中的事实要素提取出来,自动选择具体裁判规则进行分析推理,结合庭审中双方辩论意见归纳争议焦点,最终得出判决结果并生成完整文书。在法律数据获取阶段,采用更先进的OCR技术,确保对文本资料的准确识别和处理,从而减少错误率。同时,加强数据处理阶段的电子化工作,确保案件材料的准确记录和整理,减少数据处理过程中的错误和重复;在数据处理阶段,通过引入自动化生成技术,如智能辅助系统,实现文书的自动化生成。这样可以减少法官和工作人员在文书处理过程中的工作量,提高处理效率,并减少重复性工作导致的错误;在数据应用阶段,推行无纸化办案模式,利用智能辅助系统和录音录像技术,实现庭审过程的自动记录和准确留痕。这样可以减少庭审过程中的纸质材料传递和整理,提高庭审效率和准确性。

(三)司法实践中“人机协作”的交互关系

新型重大疑难复杂案件中,应确保人的绝对控制地位,避免技术主导风险,智慧法院建设中,保障司法权的主导地位至关重要,特别是在处理新型重大疑难复杂案件时,需要法官在决策和判断中拥有主导权,而智能化系统仅仅作为辅助工具;在类案智推阶段,需要确保智能系统具有主动地位,能够主动推送关联案件和批量案件的信息;通过优化系统算法和数据共享,实现系统的主动性,减少重复劳动和错误;对于特殊案件,如不公开审理、先行调解、涉及财产保全等,应排除“人机协作”场景,坚持线下开庭原则,这些特殊案件需要保障更高法益的保护,需要法院进行主导与控制,避免线上审理模式可能带来的风险。

(四)司法实践中人机交互决策的构建路径

1.坚持人工智能司法辅助性定位

司法的创新性发展以及智能技术的深度合成为司法裁判中智能系统应用提供了客观基础。但人工智能技术的两面性特征,决定了其在提高司法效率的同时也冲击和挑战着原有的司法伦理观念。由于缺乏对智能系统应用限度的理性认识,出现了智能系统对其辅助性地位的僭越。要将智能系统的适用严格控制在一定限度,以技术理性匡扶经验理性偏差,以经验理性抵挡技术理性侵蚀,控制和缩小裁判风险后果,修正和规制智能系统应用限度,将理性主义下司法审判中人工智能应用的工具主义定位和辅助性地位作为主轴,限定智能系统辅助审判的适用场景,建立应用场景监管,实现对司法裁判人工智能应用限度规制的模式完善,将经验、评判策略、价值判断和形式推理有机融合,最终弥合司法裁判与智能技术之间的张力,探究司法裁判的理性路径。司法的目标在于个案的公平正义,而非裁判效率。法官或检察官拥有司法大数据、实践理性和与法律共同体、社会共同体的深度交流优势。他们的判断往往更为合理,难以被人工智能取代。此外,个性化与弥散化决策在司法制度中有其正当性,不同判决可以为法律提供竞争性解释,帮助避免整个司法系统的错误。

2.人机决策权重设置的规则体系

大数据和人工智能在司法领域的应用与传统的司法信息化有所不同,其技术介入的广泛性和深刻性引发了独特的现象,随着前沿技术地位的提升,司法领域出现了“一种实践、两套话语”的现象,这种“话语分裂”源自法学专业知识和科学技术知识在司法领域中的权力和冲突,表现为专业话语和技术话语的对立。在下一阶段大数据与人工智能司法应用的过程中要协调话语冲突,推动技术知识与专业知识的深度融合、明晰技术权力对专业权力的介入边界。不给人工智能任何权重或给予微小权重,司法者可以选择是否参考人工智能的建议;反之,则要求司法者必须参照人工智能裁判,人工智能被赋予相对较大的权重,并在持有异议时进行集体复核和裁判说明。在技术尚不成熟的情况下,应通过试点由不同司法机关自行决定权重问题,以避免干扰司法和影响司法的后果,法院应尊重当事人对人工智能辅助司法的合意选择,但在权重设置上应自行决定。

3.智慧司法的不同部门与层级应加强信息共享

在司法实践、服务公众需求和科学决策方面,司法大数据尽管已经取得了许多成效,但在不断向纵深发展的应用过程中,也出现了一些问题:司法大数据在法院的应用和深度分析还未全面展开,面向用户的知识服务还不够丰富,数据智能推荐也不够准确;需要进一步提高数据资源的丰富性,加强数据之间的关联和融合;司法链平台的基础存证验证应用场景和成效也有待提高,跨链互认标准和协调机制尚未建立;此外,培养司法大数据人才队伍不够充足,制度建设方面的数据安全仍落后于应用。但瑕不掩瑜,作为蓬勃发展的新事物,在从传统司法向智慧司法的转型过程中,如何让司法大数据扬其所长、补其所短,充分激发其作用与效能,是在推进智慧法院建设过程中值得深入思考与研究的问题。我国的法律制度强调公检法机关分工负责,互相配合,相互制约,将准确适用法律与公平公正放在首要位置。在智慧司法建设中,人工智能应为法官提供服务,但不能替代法官的专业。智慧司法必须符合司法规律。

4.加强人工智能算法系统的可解释性

人类设计和应用算法的最终目的在于增强解决问题的能力,提升生活水平和优化社会结构,算法黑箱存在的前提是人类对因果关系的认知有限,在自动化决策过程中,算法黑箱针对特定算法用户,在数据代码背后体现了算法主体的行为目标和价值选择,不同的价值选择以及算法的复杂特性可能导致相关法律主体之间的权利冲突。法律伦理为法律关系主体行为的合法性和合理性提供了道德基础,算法主体的理性认知也必须符合法律伦理的要求。通过在立法原则、立法技术、程序机制和价值规范等方面对算法主体的行为进行规制,最终实现算法正义。黑箱司法系统可能导致法官、检察官和当事人的不信任,并可能成为司法腐败的温床。在这种背景下,人工智能算法的公开与可解释性应当以促进可问责性为目标。算法决策体系应确保法律专家参与设计和运行的所有阶段,尤其要强化后端数据库系统的可问责性,应当向当事人解释系统运作机制,保障其知情权和选择权。当事人有权拒绝使用系统,只有在双方同意的情况下才能使用,法院或检察院仅需要对系统进行说明,而非对算法决策及结果进行说明。


四、人工智能司法应用的运行逻辑与法治应对


司法人工智能融入司法改革的法理表达是“数字正义”, 司法人工智能利用法治思维和法律手段为司法改革提供理论解释和方法支持。为实现多维司法价值均衡发展,未来的发展路径需进行顶层设计,构建科学理论,研发遵循司法规律的智能化应用,建立以司法人员为中心的人机协同机制,并建立科学方法用于评估司法改革成效。制定司法人工智能的伦理规范,探索适应司法数字化改革的诉讼制度。

(一)人工智能司法应用的构建逻辑

2023411日的《生成式人工智能服务管理办法(征求意见稿)》由国家互联网信息办公室发布,建立了从算法治理逐步发展到深度合成治理再到人工智能治理的规制路径,并要求开发机构依据主体责任路径履行合规监督义务。总体来说,通过相关管理办法和司法机构的规范意见,我国在人工智能司法应用中已经意识到了可解释性和风险管控的重要性,并在制定规范和路径上进行了积极探索和引导,这将有助于确保人工智能在司法领域的应用安全、公正、可信,促进智慧司法建设的可持续发展。

围绕人工智能未来阶段司法应用的目标、原则、范围、系统建设以及综合保障的具体规定,《关于规范和加强人工智能司法应用的意见》由最高人民法院发布。在此框架下,人工智能在司法领域的应用需要精准把握其定位、边界和原则,以确保其合理性和公正性。在司法领域应用人工智能技术,代表着可视正义历史进程的开端,同时也引发了司法运行机制的深刻变革。通过场景化司法过程、代码化司法规则、建模化司法决策以及智慧化司法服务管理,有效地重塑了司法过程,大幅提高了智慧司法的社会效能。然而,人工智能技术在应对复杂疑难案件时存在内在限制,虽然可以促进形式正义的实现,但却很难实现实质正义。大数据算法虽然方兴未艾,但也同样难以成功:第一,司法裁判从本质上就无法根据既往数据被预测;第二,违背了人类发明人工智能的初衷,而诸如推动类案类判、限制自由裁量等辩护理由都是难以维系的;第三,司法大数据现实上难以支撑算法裁判在技术上的实现。

(二)人工智能司法应用的价值判断

在司法实践中,法官进行价值判断是不可避免的,大多数案件不能简单地套用传统逻辑的三段论来得出结论,而需要进行司法价值判断来解决纠纷,在进行司法价值判断时,会涉及到价值排序的问题,然而,无论从哪个角度观察,宪法规定的公民基本权利都是最优先保护的法律价值。在人工智能司法应用的定位上,应明确其在司法领域的作用,人工智能在司法领域应当以“辅助性”为主导,并在“公平”与“效率”两个维度下展开,在机器智能与人类思维之间取得平衡,以提升公平性和效率为目标,上海“206系统”是全国试点推广的智能辅助办案系统,涵盖了从刑事案件立案、侦查、审查起诉、庭审、判决等环节,同时也与刑罚执行、减刑假释、服刑人员刑满释放、回归社会等环节相链接。以实现人机协同、线上线下跨界融合,实现从刑事办案单一系统向刑罚执行、社会治理领域综合系统的转变。

我国智慧司法建设以移动互联、全面覆盖、深度应用、跨界融合、透明便民、安全可控、透明便民为目标,采用算法决策,以实现司法公正更加直观、司法活动更加透明的目标,旨在推动司法转型升级,最终提升司法结果的客观性、公正性、一致性和效率性。对于数字法治的解析,需要从多个方面进行探讨,包括数字化建设的统筹规划和顶层设计、数字化技术的安全保障、数字化技术与人民群众利益诉求的结合、数字化建设的普及率和认可度等。在划定人工智能司法应用的边界时,需注意区分事务处理、事实认定和法律适用等模块。人工智能应主要适用于替代重复性、机械性、低附加值的工作,在事实认定方面可以辅助法官,但在涉及价值判断的法律适用层面应谨慎使用,以避免对公正产生不利影响。

在把握人工智能司法应用的原则上,应遵循数据客观、价值无涉和风险可控的原则。确保数据的客观性,避免隐藏价值导向,同时要注意风险管理,特别是对于涉及人身安全和基本权利的高风险应用要谨慎对待。司法是公平正义的最后一道防线,对存在风险和争议的人工智能系统应采取审慎态度。在考虑司法人工智能的未来发展时,需要进行反思和展望,而不是简单地把它看作是对立的两种观点。针对司法人工智能的潜在发展空间和内在限制进行研究和分析,既要对司法人工智能的进步和前景持积极乐观的态度,但也要高度重视其存在的问题和自身限制,以便进行科学的赋能与合理的定位。需针对算法决策设立相应的规制和救济机制,注入公开、公平和责任理念,进而兴利除弊,促进科技向善和打造良性发展的智慧司法,更好地实现 “可视正义”。 

(三)强化司法大数据管理和规范算法监管机制

数据融合汇聚不仅是人工智能发展的基础,而且对消除人工智能偏见、促进社会公平具有重要意义。但个人信息保护中的若干制度、著作权许可、企业数据围墙可能妨碍数据汇聚。此类问题的根源在于市场失效与传统路径依赖。法律应注重从数据事前确权迈向数据事后确权,建构数据合理使用机制,重构数据的公共性。对个人信息与著作权作品,应在数据收集端适度放宽。对企业数据,应允许符合行为规范的数据爬虫,减轻某些法律责任,发挥数据爬虫的桥梁作用。同时,法律应强化人工智能对个人信息的事中与事后保护责任,防止生成式人工智能对于整体数据库的剽窃性利用。数据汇聚应探索符合大规模微型权益融合的数据法律制度。

利用OCR、语义分析等技术升级电子卷宗处理能力,自动生成裁判文书内容,减轻法官工作量,提高效率;优化案例智能推送应用:通过智能分析案情摘要及事实依据,自动归纳争议焦点,优化文书推送,为法官提供相似案例推送、相关法条智推等功能,促进案卷智能化应用;提高识别能力,监测办案风险,实时推送重点案件安全风险预警,辅助审判管理决策;引入AI法官搭建元宇宙法庭:探索构建AI法官,实现程序性事务处理与简单案件裁决,自动检查案件信息质量,构建科学智能的审判质效管理指标体系。通过不断拓展人工智能司法应用的场景,可提升司法工作的效率和质量,确保司法决策的准确性和公正性。 

(四)人工智能司法应用的实施优化

人工智能不仅未能有效消解既有司法运行中的不足,反而弱化了以审判为中心的诉讼制度改革、固化了司法管理的科层制、增加了一线司法人员的工作负担。基于本体论、认识论以及方法论的内因剖析,上述背反效应源于人工智能对司法本体的关注不足、理性主义的融入缺失以及可解释性立场的方法忽视所致。未来,人工智能司法应用的背反效应可以通过对实质法治观、多元考核机制等司法本体的强化,以人为中心的经验理性主义以及算法数据、过程、结果的可解释性等措施进行体系矫正,进而实现人工智能司法应用的深入推进。

1.在司法本体视角下构建矫正理念

保障司法公正和人权保护,提高司法效率和质量,增强司法透明度和可信度等针对技术应用的具体功能调整,旨在提高司法效率和质量,防止司法决策中的错误和漏洞,促进司法公正和透明度,但也需要注意保障人权的需求和尊重司法程序的原则。在司法实践中,需要结合具体情况,加强技术与司法的交流与合作,确保人工智能司法应用的稳健和可靠性,为司法现代化和智能化的建设提供有力支撑。在确保遵循公平公正原则、消除歧视和偏见的前提下,人工智能产品和服务应确保司法审判过程和结果的公正性。ChatGPT 等生成式人工智能对社会生活的许多方面产生影响,带给人们巨大的冲击。在司法领域中,生成式人工智能具有广泛的应用前景,例如能够生成“示意证据”和制作诉讼文书,这将有助于改变裁判方式。然而生成式人工智能在司法中的运用也会带来一些问题,例如,在确保信息真实性方面存在缺陷,裁判方式方面面临挑战,还有数据安全方面的风险等问题。在此种情况下,应当从防范虚假信息、 限制生成式人工智能裁判、保护数据安全等多个层面着手对生成式人工智能进行规制,实现其在司法中的合理运用。为了实现这一目标,需要对少数样本数据的权重赋值进行优化,以避免数据或模型的偏见对裁判判断产生影响,并在人工智能司法应用系统中实现推理逻辑与裁判要素的统一。更好地促进对管理辅助人工智能功能的修正和改进以多元化标准为核心的考核机制为前提,确保司法管理辅助智能系统的有效运行。打造面向人机协同的司法管理辅助智能系统,可以更好地加强法官在管理辅助过程中的参与,提高司法决策的准确性和公正性。为了推动人工智能在司法领域的应用,必须全面考虑不同法院的情况和实际需求,让其自主决定是否推动人工智能的应用,而不是被迫依据竞争因素和政策指标,这样可以更好地确保人工智能技术在司法领域的可持续发展和有效应用,为司法现代化和智能化的建设提供更好的支撑。为此,需要制定统一技术标准,明确人工智能在事务性辅助场景中应达到何种标准才能应用,这有利于规范人工智能技术的应用,提高其可信度和可靠性,并建立事务辅助人工智能应用的启动标准,确保应用满足法定需求标准。

2.在理性主义视角下的展开矫正路径

既有规则的延伸适用和法律解释足以应对 ChatGPT 在内容生成、数据保护、劳动替代方面的现实性“近忧”,但无法解决因其使动性和嵌入性引发的人类在现实世界、虚拟世界的生存性“远虑”。界限日益模糊的人机关系重构须回归自身认知;身体在主客之间的可逆性、在自我与他者之间的穿梭性揭示出关怀投射、和谐共融、互促互进的伦理规范。因此,引入“技术性程序正义”理论并结合我国人工智能司法运行实践予以本土化改造,已经逐渐成为当前人工智能司法背景下程序正义保障的共识。旨在通过对人工智能司法应用认识论的分析来实现对背反效应的矫正。具体包括两个方面:一是强调人在人工智能司法应用中的主体性地位,意在实现由技术理性向人类理性的回归,在决策过程中应充分考虑人类的价值观和伦理原则,确保人工智能技术的应用不会侵犯人类的权利和尊严,不让人工智能成为替代法官的目的,而是作为服务法官的工具。二是制定负面清单,明确人工智能应用的边界,增强法官的亲历性,使其了解人工智能的应用原理和对其进行把关。

结合符号主义与联结主义构建人工智能系统:ChatGPT是一种大型语言模型,这种基于深度学习技术的模型,采用了GPT-3Transformer模型范式,使用自注意力机制作为其核心,具有很强的特征提取和表示能力。通过带权变换构建模型输入,将文本序列转化为向量表示,并执行点相似度乘积运算,从而得出文本之间的相似度。与另一著名的引入局部不变性的 CNN 卷积模型范式相比,该模型能够以更大的模型容量、更强的远距离关联能力,进一步提升机器学习模型的建模能力。建立一种符号主义和联结主义相互融合的人工智能系统,实现对背反效应的矫正,符号主义强调逻辑推理和符号表示,而联结主义则侧重于神经网络和模式识别。这种系统可以更准确地预测裁判结果,从而增强人工智能在司法领域的应用。通过将符号主义和联结主义相互融合,可以更好地整合逻辑推理和模式识别的优势,提高人工智能系统的智能水平和应用效果,需要强化法律专家在系统中的统领作用,以实现对法律逻辑推理的凝练和数字化,同时加大对司法领域数据库和语料库等数字资源库的建设,确保数据之间的互通共享,为模型的训练提供充足的数据资源。智慧经济的创新需求和新领域事实上的自我管理决定了保障自由的必要,技术造成的犯罪便利、隐私泄露、科技产品缺陷等风险呼唤更高安全保障,而其中显现的权利冲突与利益失衡、歧视加剧则期待司法更有效地捍卫正义。总体来说,通过理性主义视角,可以对可能存在的反效应进行纠正,这有助于改进人工智能在司法领域的应用,强调人的主体性地位和合理运用符号主义与联结主义相结合的技术手段。

3.可解释性在人工智能司法应用中的适用规则

法律人工智能对可解释性的客观需求并非始终将可解释性视为首要考量,而是需要平衡效率和可解释性。可解释性的重要性程度可能比较低,因为在这种场景下,算法的主要目标是识别相似的文本,并排除掉冗余的内容,而不是对当事人实体权利核心进行推断和决策。因此,在这种场景下,算法的效率和准确性可能更为关键,可解释性则相对次要。当然,如果算法出现了错误结果,或者存在不合理的判断,那么可解释性就会变得更加重要。因此,软法规范应包括加强算法模型的可解释性,并公开算法源代码,同时可以借鉴“遵守或解释”机制,要求算法开发者/运营者在不遵守规范时做出合理解释。算法“黑箱”治理的硬法规范应包括算法权利(最为密切的是算法解释权、算法自动化决策拒绝权),以及借助算法备案、影响评估和合规审计启动算法问责。保障数据的可解释性对于人工智能系统在司法领域的审慎应用至关重要。首先,可解释性可以帮助确保数据的来源、准确性、全面性和代表性得到充分考量,从而提高人工智能系统的运行效果和结果的可靠性。其次,数据的可解释性还可以帮助降低系统出现偏见或歧视性的风险,保障公平性和正义性。因此,确保数据的质量和可解释性是人工智能在司法领域应用的基础,需要建立严格的数据管理和监督机制,以确保数据的可靠性和透明度。

在实践中,对训练算法模型的数据来源、代表性和缺失数据等方面进行说明是至关重要的,这样可以确保算法模型的结果与司法判决的适配性,并防止系统性偏差导致司法偏见的产生。我国立法实践中已有不少能够体现技术性正当程序内在价值的制度设计,未来还需探索建立层次化的原理解释机制、标准化的记录留存机制、结构化的人工介入机制,形成技术性正当程序的完整制度方案。算法的可解释性在人工智能司法应用的过程中扮演着关键的角色。尽管实现完全的可解释性存在一定挑战,但促进算法的可解释性可以帮助消除潜在的偏见问题和黑箱困境,提高裁判的理性成分。此外,可解释性还可以帮助检测和纠正算法可能存在的错误和不合理之处,提高司法裁决的准确性和可靠性。技术路径上已经提出了一系列针对不同类型的技术性解释方案,如基于规则的解释、激活值最大、隐层神经元分析等。未来,应当秉持理性态度,不仅要适当通过技术规训司法,而且应规避技术规训司法的负面效应。既不必过度忧虑技术规训的前景,又需要确立技术规训的辅助地位,正确认识技术规训的挑战,制定更加细致的技术使用规范并掌控技术研发的主动权。为了确保可解释性,司法领域中的算法应考虑技术性解释和人文主义关怀,算法的可解释性应根据受众的背景知识进行不同程度的解释,实现以人为中心的可解释性,在司法领域中,算法的可解释性问题应在权利义务和权力责任两个维度上进行探讨。落实诉讼参与人的算法解释请求权,明确相关智能系统的解释和说明义务;适时制定司法裁判场景中的人工智能司法应用行为准则,规定责任追究机制。监督决策过程的人员需要了解计算机系统是如何做出决策的,或者至少知道决策是基于哪些规则进行的,算法的可解释性可以帮助解释决策结果,并让决策过程进行理由说明,从而实现裁判结果的可理解性。

在算法扩张一般逻辑和基本法治框架范围内,将算法与法律统一于治理理论之项下,进而基于算法和法律的有机嵌合进行治理创新,推动算法在法治的轨道上健康、有序、繁荣发展,以真正实现算法治理服务于人类社会更加美好未来之终极目的。大数据辅助证明以整体主义为指引,在证据推理环节通过大数据技术高效组织数据,整合经验概括对个案中的推论命题和要件事实等的确定形成类型化指引;在证据评价环节可以辅助证据标准的数据化校验与证明力概率评价的科学化。尽管有些深度神经网络表现出了良好的性能,但并不意味着它们是最佳选择,在威斯康星州诉卢米斯案中,被告声称COMPAS系统的算法存在歧视性,并要求公开该算法,但最后联邦最高法院的裁判结果认为该系统具有中立性,并免除了算法开发者进行公开的义务。

结语


司法领域的创新发展和智能技术的深度合成为智能系统在裁判中的应用提供了客观基础,然而,人工智能技术的两面性特征意味着在提高司法效率和重塑裁判流程的同时也会挑战原有的司法伦理观念,由于缺乏对智能系统应用限度的理性认识,智能系统可能会超越其辅助性地位,因此,必须严格控制智能系统的应用范围,以技术理性支持经验理性,以经验理性抵制技术理性的侵蚀,控制和减小裁判风险后果。通过算法权力清单的设置、正当程序的实施、算法问责机制的设计,打造体系化的算法规制架构。为了实现对技术应用的紧急处理、监督、归责和有限公开,需要建立技术规制技术的正当性程序,即通过将程序代码化来实现,将数字人权价值设定成算法程式,通过算法矫正程序确保数字公民的程序选择权、程序拒绝权和程序参与权,不断修正要素式裁判的人机协同策略,从整体上实现技术正当程序对智能裁判风险的有效控制。为了修正和规范智能系统的应用限度,需要将智能系统的应用范围严格控制在一定限度内,应当将智能系统定位为裁判中的工具和辅助,限定其适用场景,建立应用场景监管,以实现对司法裁判中人工智能应用限度的规制。同时需要将经验、评判策略、价值判断和形式推理有机融合,以弥合司法裁判与智能技术之间的紧张关系,探索司法裁判的理性路径。

在智能司法实践中,由于“技术信任”的客观属性,信任生成过程中的理性因素被强调和放大,而情感和信仰因素则被相应削弱。通过制度规范实现对技术的开发应用和评估监管、增强司法人员在技术使用过程中的能动性、恪守技术的工具属性、搭建制度化的沟通平台,以及保持同社会公众积极的互动与沟通、约束和引导新媒体的宣传等,是构建智能司法信任的重要方面。通过将智能系统应用限度规制在合理范围内,并将其辅助性地位明确为主轴,可以有效地控制裁判风险后果,有效推动司法领域的创新和发展,确保智能系统在裁判中的应用不会超越其适用范围,同时保持司法裁判的合理性和公正性。确保智慧司法应用稳定性和可靠性的同时,需要加强相关法律法规的制定和完善,明确人工智能在司法领域的应用范围和限制,确保法律风险可控。此外,还需要建立起一支高水平的人工智能人才队伍,不断推进技术创新和应用研究,提高智慧司法应用的质量和效率。最终,只有通过产学研用的深度融合,建立起自主可控的智慧司法应用体系,才能真正实现智能司法的现代化和法治化。也更应该统筹规划协同学术界、产业界、技术界和司法界的多元资源和力量, 通过开发场景、开源模型、开放数据、开放评测和评估等方式有力推动模型创新与应用生态的建设。



作者简介

王秀平(1977-)女,山东武城人,山东政法学院民商法学院副教授,研究方向为诉讼法学、数据法学。


本文原载《政法论丛》2024年第2期。转载时请注明“转载自《政法论丛》公众号”字样。

政法论丛
《政法论丛》是由山东省教育厅主管、山东政法学院主办的法学类专业学术期刊。本刊坚持正确的政治与学术导向,传播和吸纳国内外优秀的法学研究成果。是CSSCI中文社会科学引文索引来源期刊、全国中文核心期刊、中国人文社会科学核心期刊。
 最新文章