陈淑婷 | 人工智能辅助司法裁判的伦理风险及治理

文摘   2024-12-17 17:06   甘肃  

本文载于《科学·经济·社会》2024年第42卷第5期第99-113页

作者简介



陈淑婷,苏州大学王健法学院,主要从事民商法学研究。

E-mail:chenshuting0592@163.com



人工智能辅助司法裁判的伦理风险及治理






摘   要:人工智能司法应用具有缓解“案多人少”矛盾的积极作用,但同时也引发了伦理风险的担忧。在人工智能辅助司法裁判的应用场景,产生的最大伦理风险就是对人的主体性的挑战,人工智能把法官带进算法决策的技术规程之中,消解了法官审判独立的地位,产生司法不公、侵害人的尊严等问题。应从司法裁判的可接受性和融贯性考量,论证人工智能辅助司法裁判的正当性边界。基于目前人工智能的发展阶段,人工智能尚不能替代法官裁判,人工智能只能是辅助司法裁判的工具。面对人工智能司法应用存在的伦理风险,需制定人工智能伦理风险准则,根据技术产生的伦理风险严重程度,采取分类分级规制。明确人工智能提供者的责任,要求人工智能提供者承担解释说明、披露、合规等义务。规范人工智能提供者的行为,对人工智能使用者进行必要的提示和培训,增加问责机制,设置伦理风险预见和评估机制。实现人工智能与智慧司法的有效融合,相互促进。






关键词:人工智能伦理;人工智能;司法应用;伦理风险;伦理治理



2016年《国家信息化发展战略纲要》提出建设“智慧法院”,2017年最高人民法院印发《最高人民法院关于加快建设智慧法院的意见》,2022年《最高人民法院工作报告》将深化司法体制改革和建设智慧法院作为重要工作事项。由此各类人工智能技术在司法领域的应用越发常见,介入程度也越发深刻。目前在转换庭审笔录、辅助文书制作、辅助案件审理、辅助司法服务等方面均有人工智能的应用。人工智能在司法领域中的应用,能够极大节约机械重复性工作的人工成本,减轻司法人员的负担,缓解“案多人少”矛盾。同时,可以消解因物理时空条件局限而导致的正义实现难题,使物理意义上的“接近正义”迈向数字意义上的“可视正义”【1】。虽然人工智能司法应用可以提高司法管理的水平,促进司法效率,但同时也引发了对人工智能司法应用的伦理问题思考。人工智能司法应用对传统司法审判模式造成冲击,使公众对司法公正、审判中立、法官自由裁量等问题产生担忧。司法的直接功能是定纷止争,同时也间接影响人的自由、尊严、权利等方面的保护。若人工智能的应用,导致法官审判主体地位被削弱,造成算法即权利、代码即规则的局面,势必影响司法的公正,侵害当事人的合法权益,损害公众对司法权威的信赖,影响法治中国的建设。智慧法院的建设是中国法治现代化重要的措施,是高质量发展必然要求。智慧法院的建设,离不开人工智能的应用,人工智能司法应用则回避不了对人工智能伦理问题的回答。一言以蔽之,一方面需要承认人工智能技术对智慧司法的有益助力,另一方面也不可否认科技是双刃剑,人工智能司法应用也产生伦理风险。有鉴于此,本文通过梳理人工智能的技术特征、人工智能伦理概念、人工智能产生的共性的伦理风险,在此基础上,再进一步分析人工智能在司法领域应用的特殊性。论证人工智能司法应用的正当性问题,人工智能司法应用产生的伦理风险及治理,希冀为人工智能司法应用的伦理风险治理提供有益探索。


图源网络


人工智能的技术特征和伦理问题


(一)人工智能及其伦理概念


1.人工智能技术特征

1956年,在麦卡锡(John Mc Carthy)等人参与的达特茅斯会议上,确立了人工智能的研究领域,自此之后,人工智能发展经历了曲折的历程。2016年,谷歌的AlphaGo战胜人类棋手,人工智能受到越来越多的关注。近年来,机器学习、深度学习、强化学习等各类搜索、感知、决策算法快速发展,在工业、农业、教育、司法等各个领域得到广泛的应用,加速各行各业的智能化转型。2022年以来,基于大模型的生成式人工智能成为研究热点,推动了人工智能相关应用的发展。简言之,人工智能是一门新颖的技性科学,它基于计算机理论和方法,研究如何模拟、扩展、深化、开拓人的智能,并将其付诸技术应用【2】


人工智能领域的关键技术主要有机器学习、深度学习、知识图谱、自然语言处理、计算机视觉。通过这些关键技术,可知人工智能技术具有如下特征:自学习和适应性,可以通过数据和经验不断改进和优化性能。自动化和高效性,能够自动执行复杂困难的任务,提高工作效率和生产力。智能交互性,可以处理自然语言,与人类进行友好便捷地沟通。除优势特征外,人工智能技术也存在缺点特征。不可解释性,人工智能算法模型的工作机制很多还是黑盒子,算法黑箱下难以解释其决策和判断的过程,缺乏透明度。数据依赖性,人工智能技术需要大量的数据进行训练和学习,数据的质量和数量都将影响技术的效果。如数据质量不佳或者存在偏差,就会导致结果偏差。隐私安全性差,因人工智能技术训练及学习需要访问和处理大量数据,其中不乏个人敏感数据,可能发生隐私泄露和安全的风险。缺乏人类情感及伦理,无法理解和表达人类的情感、伦理,将引发伦理道德问题。在具体实践应用中,不是只应用一种技术,而是多种技术共同发挥作用。每个技术都有其优点和不足,因此,对人工智能技术需要辩证看待。从伦理角度考虑,人工智能技术存在的偏差性、不可靠性、鲁棒性、有毒性等隐形伦理特性,将引发伦理道德风险【3】


2.人工智能伦理概念

要应对人工智能伦理风险,需要对人工智能伦理概念有一个正确的认识。人工智能伦理是一个综合概念,由很多维度构成。算法偏见、隐私泄露、心理依赖、人格贬损、就业问题、两极分化等都可以成为人工智能伦理的构成维度。简言之,人工智能伦理是指人工智能技术及其应用中涉及的伦理问题,如人工智能决策的公正性、隐私保护、歧视性风险等。与人工智能伦理相近的还有计算机伦理、信息伦理、科学伦理,数据伦理等概念,有必要做一区分,以便更清晰地把握人工智能伦理。在20世纪70年代,随着计算机技术的发展,为规范人们正确使用计算机,避免出现伦理道德问题,学者对计算机伦理展开了研究。随着科技发展,出现了信息化,为防止信息技术滥用,规范信息在决策过程中使用,学者提出信息伦理的概念。大数据时代,数字经济快速发展,数据作为重要的生产要素愈发重要,数据伦理问题随之诞生。而大量的数据为人工智能发展提供丰富的资源,算法算力的增强推动人工智能飞速发展,人工智能伦理也随之提出。可见,计算机伦理、信息伦理、数据伦理、人工智能伦理的发展均与信息技术的演化紧密相关。计算机伦理关注计算机及其应用中的伦理问题,包括计算机程序的设计与使用中可能涉及的伦理问题,如软件知识产权、数字鸿沟、网络安全等问题。信息伦理主要涉及信息的获取、传播和使用中的伦理问题,包括信息的真实性、信任度、传播对社会产生的影响等。数据伦理关注数据利用过程中的伦理问题,包括在数据收集、数据加工、数据共享、数据管理等过程中。数据伦理主要由数据隐私、数字鸿沟、数据安全、数据所有权、数字身份、数据质量、数据可及等七个维度构成【4】。科学伦理是科学领域中涉及的伦理问题,包括科学研究中的诚信、数据操纵、动物实验伦理等问题。这些伦理概念之间有一定的联系,都涉及信息技术相关的现代科技领域,关注如何在科技发展中维护人类尊严、价值、权益。同时,这些概念也存在区别,专注于不同领域。根据“信息链”理论,即事实、数据、信息、知识、情报或智能,这五要素构成的关系链条,更能说明这几个概念的联系。概言之,计算机、信息、数据为人工智能的发展奠定了基础,人工智能伦理是建立在数据伦理、计算机伦理和信息伦理的基础上,科学伦理概念外延更加宽泛,可以说是其他伦理概念的上位概念。这些伦理概念都旨在引导科技发展向善,符合人类价值观和伦理道德,只是关注的焦点和领域有所不同,所处的科学技术发展阶段不同,它们之间有相互交叉和重叠的部分。


(二)人工智能主要伦理风险

作为一个学术研究领域,伦理学的研究主要属于哲学学科。从最广泛的意义上讲,伦理学是对人类如何更好地生活这个问题进行研究。人工智能是人类智能的延伸,在其发展和应用过程中,应当包含对人类伦理的正确考量。技术不断发展,人类可能被自己创造的技术反噬,由此不得不对技术进行伦理反思。换言之,必须探讨人工智能伦理的根本原因是人类对未知、强大之物的恐惧。人工智能伦理是开展人工智能研究、设计、开发、服务和使用等科技活动需要遵循的价值理念和行为规范,人工智能伦理关注技术的“真”与“善”,并为人工智能发展提供更广阔的讨论空间【5】。人工智能伦理风险不同于纯粹的技术风险,其渊源来自人工智能技术的开发和应用带来的对现有伦理和社会秩序的冲击【6】。人工智能的伦理问题主要由算法的自主学习能力所衍生出来,主要有数据隐私、安全威胁、算法歧视和人的主体性等伦理挑战。


具体而言,人工智能引发的伦理风险主要有如下几个方面。首先,侵害或泄露个人信息、隐私的风险。数据作为推动人工智能发展的三大要素之一,数据的数量以及质量对于人工智能的发展至关重要。人工智能需要大量的数据用以训练模型,提高算法和算力。而数据,尤其是个人数据,包含着个人信息及隐私。一旦数据被非法窃取和利用,导致数据泄露,可能会引发身份被盗窃、定向网络攻击、精密钓鱼式攻击、未经授权访问个人敏感账户等行为,这将严重损害个人信息和隐私安全。数据泄露事件频发,比如法国政府数据泄露暴露4300万民众信息,富士通遭受恶意软件攻击并发生数据泄露,都凸显了数据安全和保护的重要性,以及人工智能数字化带来的巨大挑战。其次,算法偏见的风险。提及算法貌似并无人的价值干预,应是客观中立的。因为基于技术中立原则,技术发展和应用按照自身规律演进,不受人的控制和左右【7】。一般认为技术是没有价值取向的工具。但算法具有不可解释性和不透明性,这种算法黑箱性质,可能就会使算法有意或无意被嵌入歧视性的数据、代码,最终导出歧视性的结果。因此,准确理解一项技术,需要从工具性和目的性两个维度进行解读。技术本身是中立的,可以向善亦可向恶,无关价值判断。一旦技术和人类挂钩,技术如何被利用?技术为了实现人类何种目的?那么技术中立可能就消亡了。“以人事补天工,役天工于人事。”须坚持发展向善的科技,避免技术开出“恶之花”伤害人类。再次,人格贬损的风险。一方面,技术是充满善意来到这个世界,承担着合目的性的工具角色,为人类服务【8】。人工智能技术可以帮助人类解决很多人类不能完美、高效完成的任务,甚至是人类无法完成的任务。但另一方面,人工智能技术的飞速发展也带来了消极的影响。因为有了人工智能会劳动、会听、说、读、写、思考、学习,而且可能还比人类做得更出色,那么人类就会怠于劳动、怠于思考,从而产生依赖心理,变得懒惰,对人的全面发展造成极大的负面影响。若人工智能发展到超级人工智能阶段,相比人类,人工智能具有无可比拟的优势,势必贬损人格,消解人的主体性。最后,两极分化的风险。人工智能的发展,会导致一些简单、重复性的工作被替代,出现一些技术含量要求高的工作,那些未掌握技术的人将在求职中被淘汰,也就是在就业技能上出现了分层,出现“高技能—高收入”和“低技能—低收入”两个极端。人工智能技术的垄断以及数据资源多寡不均,造成数据鸿沟,贫富分化,出现数字穷国和数字富国、数字穷人和数字富人,最终导致贫者愈贫、富者愈富的局面。


人工智能辅助司法裁判的正当性边界


根据2023年《法治蓝书·中国法院信息化发展报告》,法院依托人工智能先进技术,目前已实现案件卷宗信息自动回填、庭审语音自动转录、文书辅助制作、法律知识服务、类案自动推送等服务,切实大幅减少了法官的事务性工作,提升庭审效率【9】。减轻法官事务性工作,提升司法服务水平,提高办案质量和效率,这为人工智能司法应用提供了强有力的正当性依据。但人工智能辅助司法裁判,还面临正当性质疑。法律实证主义者认为法学可以效仿自然科学中所运用的方法,但实践中的法律并非数学化的科学方法那般精准。司法实践中的案件更加复杂,并没有一一对应的公式进行套用解答,法官需要在案件事实与法律规范之间进行来回论证,找出事实与法条的关联,考虑法理与情理,作出公正判决。如沃格林所言,实证主义真正对社会科学的毁灭性在于它将自然科学的方法当作了判断理论的相关性标准【10】。实践中的案件情况千奇百怪,并不会完全按照教科书式的情形发展,因此法律规范并不能完美地应对所有的案件。对于复杂案件,可能有一系列相互冲突的可适用的法律,最终应适用哪一规范,不得不诉诸审判人员的价值判断。而基于人工智能的技术特征,目前是无法进行法律推理和价值判断的,那么人工智能对于辅助司法裁判是否具有正当性基础将存有疑虑。在人工智能司法应用过程中,案件裁判的过程由数据之间的拟合性代替了庭审对抗,裁判的制作由算法的预设代替了法官的自由裁量【11】。如此,对司法审判程序造成冲击,庭审抗辩、质证的过程,法官裁判说理的过程,因人工智能的应用极度简化,程序正义、当事人的诉讼权利、法官审判主体的地位,都受到压缩、消解。

图源网络


在论证人工智能辅助司法裁判的正当性时,目前学者主要是从司法裁判的可接受性和融贯性标准进行论证。沃洛克(Eugene Volokh)认为技术可以用来创建AI法官,如果AI法官可以比人类法官提出更具说服力的裁判意见,那么在充分保护其免受黑客和类似攻击的前提下,我们原则上应该接受它作为法官【12】。换言之,如果人工智能法官司法裁判和法理说理更能让当事人和公众接受,那么人工智能替代法官裁判就具有了正当性。但必须指出沃洛克提出的AI法官是强人工智能才可能实现的,目前的人工智能属于弱人工智能,无法进行法律推理。桑斯坦(Cass R. Sunstein)指出应当区分人工智能司法的两种观点,一是强人工智能可以进行法律推理,二是弱人工智能提供计算机服务,因为法律推理需要评价性的价值判断,因此强人工智能是不可实现的【13】。虽然人工智能无法进行价值判断,不能取代法官进行司法裁判,但人工智能在辅助司法裁判仍有重要作用。首先人工智能可以给予法官更完整的判断视角,人工智能可以快速汇总与案件相关的法律法规以及以往的类案,让法官可以更全面地考量案件,作出更合理公正的裁判。其次是人工智能可以促进司法裁判的统一。为统一法律适用,提升司法公信力,最高人民法院在2020年颁发《关于统一法律适用加强类案检索的指导意见(试行)》。要在过往大量的案件中找到与待决案件相似的案件,在过去是一个非常大的工作量。但依托人工智能,可以快速地检索出类案,提高当事人、法官信息收集的效率。类案检索能让法官在进行裁判时,参考同案判决,减少同案不同判的情形。最后,人工智能可以让法官裁判更加高效,人工智能辅助庭审笔录、判决书等文书格式的生成,法官可节省时间,将精力投入说理论证上。人工智能应用于司法裁决的合法性和公正性如今尚未有明确的理论归属,但对其应用限度的正当性基础却可以得到明确考量【14】。即基于目前人工智能的发展阶段,人工智能不能替代法官裁判,人工智能只能是辅助司法裁判的工具。


人工智能辅助司法裁判的伦理风险


人工智能是一项通用性技术,可以赋能不同的应用场景,不同应用场景中的人工智能各有特点,其法律风险、表征以及回应机制各不相同【15】。人工智能在司法领域的应用,除了会产生人工智能应用常见、共性的伦理风险外,还会产生特有的伦理风险。人工智能辅助司法裁判最大的伦理风险就是对人的主体性的挑战,人工智能把法官带进算法决策的技术规程之中,消解了法官审判独立的地位,并产生司法不公、侵害人的尊严等更多新问题。


(一)人工智能算法产生的伦理问题


人工智能辅助司法裁判,需要建立各种智能系统。以司法预测系统为例,将开放的司法数据按照设定的标签进行标注,然后转化为自然语言,输入算法模型进行算法学习,得出可以预见案件胜诉或败诉可能性的模型。司法预测系统使当事人或律师能够预测诉讼结果,也可以帮助法官作出裁判。人工智能的机器学习过程并不会模拟人类的推理,只是对规模宏大的数据进行识别,以一种自动化的方式将输入值与输出值关联。因此通过人工智能得到的结果可靠性很大程度上取决于数据数量与质量,以及算法模型的选择。当数据不足或者混乱时,就会出现识别问题,得出错误的相关性。因此,在训练算法时使用的数据质量数量至关重要。

1.算法固有缺陷导致司法不公

人工智能将司法数据标注并通过自然语言处理后,输入算法模型进行学习,从而对案件咨询智能问答、进行类案检索、提供诉讼策略、预测案件胜诉率等,这种算法应用不是复现法律推理,而是在封闭场景中寻找各输入值与输出值间的相关性。法律本身存在滞后性,无法预先规制所有问题,人工智能对标注的法律、案例等司法数据进行处理学习,也会无法穷尽描述所有现实世界可能发生的案件情形。在人工智能司法应用中,若遇到未标注学习的数据,人工智能算法模型因尚未表达这些关联,就无法应对。现实中存在不少疑难案件,参数关联错综复杂,人工智能算法模型设定的参数关联可能较为简单,如此便不能有效解答疑难案件。此外,司法裁判不仅要符合法理,也需考量情理、天理。法官在进行司法裁判时,需要进行复杂的价值衡量,综合考量人际关系、情感因素等伦理要素。人工智能是依靠逻辑算法而堆积出的强大推理能力,难以理解伦理。人工智能技术对人类社会关系、观念准则缺乏理念和认同,难以准确把握人类自然语言的语义和带有感情色彩的话语【16】。在此情况下应用人工智能得到的案件处理,可能是缺乏人情的冰冷判决,有损司法的温度。

传统司法论证一般采用三段论演绎推理,人工智能在进行司法论证时,简化了司法论证的步骤,将结果性事实与特定法律后果直接联结起来,这种联结不是推理,只是利用历史数据进行预测。那么法官参考人工智能意见作为裁判的依据,将改变司法说理论证逻辑。同时,法官若将人工智能意见作为裁判依据,也是对裁判权的割让。基于传统诉讼法的基本原理,裁判权由法官独占享有的,但人工智能在司法领域的应用,特别是生成式人工智能,改变了这一样态。法官通过咨询ChatGPT得到初步的裁判意见或形成最终裁判结论,使得ChatGPT在相当大的程度上成为实质的裁判者【17】。这种纯粹技术化适用法律规范,会僵化法官的思维,消解法官的主体性,削弱法官自由裁量权,也会弱化法官的责任。此外,针对同一问题,在同一个人工智能系统模型,提供不同的关键词,采用不同的提问方式,人工智能可能会给出不同的答案,不同的人工智能其算法模型不同也将得到不同回答,影响统一性。人工智能算法模型存在数据偏差和算法歧视的缺陷,人工智能给出的裁判意见可能是错误的或者有倾向性的,会误导法官的裁判方向,影响司法公正。

图源网络


2.人工智能不透明及不可解释性导致司法不公

人工智能研究有诸多技术途径,以强力法和训练法为主。强力法是预先设定相关输入值与输出值,按照设定的模型通过显式表达方式进行计算;训练法则是利用人工标注的数据训练模型,通过训练自行学习获得相关输入值与输出值。二者基本运行逻辑差异不大,都保持价值中立,被动应用的特性。代码编写和算法设计的高度复杂性,是造成算法不透明的核心原因之一【18】。此外,算法模型的设计者及程序员可能为了私利,在算法模型中隐蔽嵌入一种逻辑,使算法结果出现偏差,更偏向其期望的目标。由此,基于什么算法模型计算或训练得到结果的,并不透明。作为用户并无法知悉其中的规则,无法提出不同意见,也不能参与决策,只能被动接受最终的结果【19】。由于人工智能的黑盒子性质使其决策过程难以理解和解释,这种不透明、不可解释性,又无法对其公开、提出质询、提供救济,很容易演化成“算法霸权”。尽管技术本身是中立的,但在技术发展还未完全成熟,以及法律治理能力尚不足应对风险的情况下,技术的中立性和客观性并不能得到保证。因此,在司法应用过程中,法官通过应用人工智能对案件进行初步分析,因人工智能的不透明性和不可解释性,得出的案件预判结果可能存在歧视,但这种偏差歧视可能很隐蔽,法官若直接采用了人工智能给予的裁判意见,将导致司法不公正。

3.人工智能算法歧视与数据偏见导致司法不公

人工智能算法模型的训练依赖海量的数据,数据来源以及质量难以把控,不完整、不准确、虚假的数据,会影响人工智能对数据作出准确理解,造成偏差。互联网的数据丰富,质量以及分布却不均衡。国家层面上,由于经济、科技实力的不同,数据的形成逻辑与表达方式主要由发达国家主导,发达国家基于自身的意识形态、思维方式、利益考量,会选择最符合自身利益的算法逻辑,由此可能导致人工智能模型存在算法歧视和数据偏差的问题。企业层面上,数据被垄断地掌控在少数大型互联网企业手里,假如这些企业本身存在某种偏见或倾向,则可能在人工智能的算法中注入此种偏见或倾向。一旦算法模型被有意或无意嵌入带有歧视的价值取向,得出的算法结果就存在偏差、不公正。法官使用的人工智能产品,一般也是企业研发提供的,法官并不能保证这些产品的质量。由此,法官应用人工智能辅助司法裁判时,可能会受到内涵在算法逻辑中的种族、性别等方面的偏见影响,从而导致裁判结论的偏差,对司法公正产生严重的负面影响。


(二)司法数据开放引发的伦理问题


1.过度追求同案同判影响司法公正


司法公正是司法裁判的价值诉求,司法公正包括实体公正与程序公正。追求同案同判,是追求法律适用的统一,公平适用法律以实现司法公正。但同案同判是否就意味着是司法公正?二者显然不能等同。“同案”还是“异案”取决于判断的视角,而法律上的“同案”判断取决于法律的视角,只有在法律所欲追求或评价的要点上具有相同意义,即意义同一性的,才属于同一类型(同案)【20】。判断是否为同案也是一种价值判断,而人工智能不具备价值判断能力。认知计算技术无法按照人类阅读的意义去阅读文本,它只是智能处理文本,识别与问题相关的元素【21】。质言之,虽然人工智能可以对数据进行最佳的匹配,但因为不能按照人类思维理解所处理文本的意思,就可能得出错误的相关性。人工智能基于先前同类案件的历史数据预测待决案件的裁判结果,其实是利用大数据发掘类案的历史平均判决,并会让人不自觉地认为这是“最优判决”,无形中给法官造成必须按照该“最优判决”审理待决案例的压力,法官无形中沦为工具。换言之,法官司法论证的过程变成大前提为先例如此裁判,小前提为待决案件类似先例,结论为待决案件应按先例判。显然,这样的论证结果不一定合理。因为同案同判与依法裁判的要求可能发生冲突,例如过去的裁判是错的,或者过去裁判所依据的法律被废止无效,与新法或高位阶的法律冲突,在此情形要求同案同判不具合理正当。但司法裁判的依据是规则而非规律,规范性不等于规律性,规范意义上的可预测性也不意味着司法裁判是可以实际被预测的,当规则发生变化时,所有的规律都变得不那么重要了【22】。此外,人工智能技术是基于相关性的形式推理,缺乏法律推理结果的因果性考量,难以对个案中的实质性道德理由进行价值权衡【23】。若过度地追求同案同判,不考虑个案的特殊性,可能引发与“个案正义”的冲突,导致待决案件处理不公。同时,同案同判可能会导致法官自由裁量的限缩,限制法官在司法裁判中对法律规则或理念进行创造性的演变,消灭司法创新的空间。人工智能使得法官排除直觉,对法官思维的消极影响是助长了法官的机械思维、遮蔽了法官思维的独立性【24】。不可否认同案同判的积极意义,但实践中难以真正落实。如果法官执着于同案同判,可是会频繁偏离法律,出现违反了选择最优化,则法治便无法存活的困境【25】

2.对“法官画像”影响司法公正

司法人工智能对法官的性格和倾向进行描绘,形成“法官画像”。一方面,与同案同判检索过去所有类案裁判数据不同,对法官进行画像,是对法官或者法院过去所做的类案裁判数据进行检索。这种检索得出的预测,是个性化预测,基于人的行为前后一般会保持一贯性的前提,认为同一个法官或法院现在的裁判会与过去保持一致,由此来预测待决案件的裁判结果。对法官进行画像,分析法官做过什么、将会做什么,只关注能否利用对法官裁判的个性预测获得自身利益,对裁判的正确性,司法的公正性问题置若罔闻。这种策略性投机主义的态度与应用人工智能提高司法效率的初衷是背道而驰的。另一方面,法官也可能主动向被画像的性格靠拢,为塑造良好记录而有意识地向公众偏好倾斜,将对法官判决产生不当诱导,干扰司法的独立与中立。总之,“法官画像”的广泛应用,会让当事人刻意寻找对待决案件作出过有利判决的管辖法院或法官,通过改变案件审理者来影响审判结果,从而可能影响司法独立公正。同时,这也是对司法裁判人员的隐私和人格尊严的侵犯。


3.对“当事人画像”影响司法公正及人格尊严

在诉讼中,为了解对方的情况,一般也会对诉讼相对方进行画像,检索其过往的诉讼、处罚情况等信息,作为一种诉讼策略及正常的背景调查,这是无可厚非的。若法官在裁判时,对当事人进行画像,可能会先入为主地对当事人产生刻板印象,影响司法公正。公开的案件进行简单的化名,而不是匿名,存在被重新识别的可能性。对于案件中涉及的敏感信息,如民族、种族、宗教、疾病等,这些信息若大规模传播将会带来歧视,对个人的尊严和隐私造成严重的侵害。案件公开可能会被滥用,如自媒体不当地使用裁判文书网,专门猎奇寻找有话题性的案件,为吸引眼球获得流量,断章取义案件的内容,故意挑起争议,误导公众,损害司法的权威性。同时,也会对案件当事人的隐私、人格造成损害。但根据审判公开原则,公开案件裁判是原则,只有在例外情况下才不公开。裁判文书公开是审判公开原则的具体表现形式,在最高人民法院办公厅公发布关于上线全国法院裁判文书库的通知,引发舆论一片哗然,诸多学者为此发声。劳东燕认为通过法律的社会治理,只有通过法条与相应裁判的公开,才能有效地实现。何海波认为大幅度缩减裁判文书的上网数量,与行政诉讼法立法精神不相符。概言之,应坚持公开裁判文书,阳光司法,但需要对公开的文书中涉及个人敏感信息进行处理,网络行为的规制不仅有法律还有代码,代码技术手段可以对滥用司法数据行为进行控制,保障个人的隐私和人格尊严。


综上所述,随着技术应用的不断深入,司法固有属性被消解、法官主体地位被削弱、司法改革目标被替代、司法改革结果失控的风险有可能逐步加剧【26】。无论是哪种风险,最终都会影响司法公正,动摇司法权威。智慧司法所引发的伦理风险容易损害中国的司法公正,破坏公众与政府之间的信任纽带【27】。努力让人民群众在每一个司法案件中感受到公平正义,正是基于这种维护司法公正的决心,使公众对司法公信力、对政府产生信任。而一旦因人工智能司法应用的不当引发司法的不公,将会撼动公众对政府的信任,不利于法的社会治理和社会的凝聚力。


人工智能辅助司法裁判的伦理治理


在人工智能领域,要倡导设计和发展“有道德”的人工智能伦理规范,将“伦理先行”的理念贯穿于人工智能的开发、设计和使用全过程【28】。中共中央办公厅、国务院办公厅在2022年印发的《关于加强科技伦理治理的意见》中强调科技伦理是科技活动必须遵守的价值准则。2023年国家网信办等七部门联合发布的《生成式人工智能服务管理暂行办法》规定提供和使用生成式人工智能应遵守社会公德和伦理道德。法律是维护社会美好生活的重要工具,但新技术发展的速度、规模和复杂性正在超越法律法规。人工智能伦理规范兴起于法律规范之前,未来人工智能法律规范应吸纳伦理规则。需要明确的是不能依靠人工智能伦理规范来回应我国人工智能活动的所有问题。面对人工智能司法应用存在的风险,应从确定人工智能伦理风险指标,规范人工智能提供者的行为,要求人工智能提供者承担解释说明、披露、合规等义务,保障数据准确真实无偏差,对人工智能使用者进行培训,限制人工智能裁判等方面着手,趋利避害,实现人工智能与智慧司法的有效融合,相互促进。


(一)制定伦理准则并分级分类治理


泰格马克是人工智能伦理准则的积极支持者,他认为一旦人工智能比人类智能更强大,人类的地位就沦落到和蚂蚁差不多,而人工智能将越发强大和智慧,因此需要制定伦理准则来规制【29】。人工智能伦理原则最有名的雏形是来自科幻小说的“阿西莫夫三定律”。在2017年阿西洛马人工智能会议上专家共同签署了阿西洛马人工智能原则。阿西洛马人工智能原则的出台,旨在为智慧社会提供有益的智能和有道德的机器,借鉴阿西洛马人工智能原则来改良本国治理方案具有一定的现实必要性【30】。从人工智能的治理原则视角切入,通过梳理不同国家、地区、组织、企业所构建的人工智能治理原则,提炼其共性,是生成式人工智能风险治理元规则形成的可行进路【31】


在人工智能伦理共识性原则层面,联合国教科文组织193个成员国达成《人工智能伦理问题建议书》,以人的尊严、福祉和防止损害为导向,确立了4项人工智能价值观,10项人工智能原则。2023年联合国成立高级别人工智能咨询机构,并发布《以人为本的人工智能治理》报告。《G20新德里领导人宣言》提出“负责任地使用人工智能以造福全人类”。美国电气和电子工程师协会(IEEE)是世界上最大的技术专业组织,有专门的技术伦理部门,在人工智能、机器人和数据管理等新兴领域制定新的伦理标准。美国《关于安全、可靠、可信赖地开发和使用人工智能》行政令提出安全可靠、保障权利、保护隐私等伦理要求,《人工智能应用的监管原则》《人工智能技术法案蓝图》《人工智能伦理准则》《人工智能风险管理框架》等也提出类似的伦理原则。欧盟《人工智能法案》《可信人工智能伦理指南》,日本《以人为本的人工智能社会原则》《人工智能运营商指南(草案)》等也强调以人为本、保证透明度等伦理原则。总之,为协调人工智能技术发展与风险防范,各国政府制定符合其人工智能治理理念,并通过颁布人工智能伦理原则、指南等指导行业实践。基于各国各地区提出的人工智能伦理准则,可以总结出人工智能伦理准则:造福人类及尊重人权,人工智能的设计和应用应造福人类,尊重并保障个人的基本人权和尊严。透明度和可解释性,人工智能的决策过程对用户和相关方应是透明可解释的。公正和公平性,人工智能的设计和应用不偏袒或歧视特定群体,避免强化社会不平等。隐私保护,人工智能设计及应用是要尊重个人隐私权,最小化数据收集和使用,并采取必要措施保护用户数据安全。多样性和包容性,在人工智能研究、开发和应用过程中,考虑并尊重不同文化、价值观和需求,避免排斥任何群体。负责任和可追溯性,人工智能的设计者、开发者对人工智能产品负责,保证可追溯决策和行为的来源。概言之,作为科技伦理规范,人工智能伦理规范应体现增进人类福祉、促进公平公正、保护隐私安全、保持公开透明、强化问责担当的原则【32】


与人工智能伦理准则相比,人工智能司法应用的伦理准则并无实质差别,只是因人工智能司法应用容易造成法官地位的消解,法律推理论证的省略,程序正义的破坏等特有的风险。因此,人工智能司法应用的伦理准则还需增加人工智能辅助原则,确保人工智能只作为法官审判的辅助工具。应对人工智能从技术研发到应用全生命周期进行风险识别,并根据技术和产品的发展及时进行更新,同时针对技术发展新出现的风险,更新人工智能伦理准则,确保人工智能伦理准则的适用性。此外,应根据技术产生的伦理风险严重程度,采取分类分级的应用规制。对于基本不具有伦理影响的人工智能司法应用,如帮助法官处理事务性工作的技术,可简化监管。对于具有一定伦理影响的人工智能司法应用技术,如辅助司法裁判,则需要设定伦理要求,建立风险评估机制,明确责任。


(二)设定人工智能提供者的义务


我国的人工智能治理体系中,对技术支持者的要求一般为遵循人工智能伦理的软性要求,硬性要求仅在《深度合成管理规定》有所规定,即参照服务提供者承担一定的合规义务【33】。人工智能提供者应作广义理解,包括人工智能的设计者、生产者、管理维护者和数据提供者。首先,要求人工智能提供者承担信息披露义务。在司法领域,公正和透明是最基本的要求,如果无法解释人工智能判决的依据,将会对司法公正产生怀疑。但目前人工智能基于什么算法模型计算或训练得到的结果并不透明,由此在必要的情况下,可以要求人工智能提供者披露算法模型,开放源代码、可被检验,对可能存在高度错误或敏感的信息进行提示、解释说明,从而防止算法中可能存在的歧视倾向。公开透明还体现为人工智能系统的可解释性,但只需对某一特定决定的解释,不需要对整个人工智能系统的活动进行解释。提倡透明、自主和可信赖的价值观。增强自主权和透明度,可以促进更大的信任。当然,我们不可能对处理数据的每件事都完全透明:公司利益、知识产权和其他各方的隐私问题往往要求在透明度与其他合法商品和利益之间取得平衡。同样,有时用户的自主权会与防止有害滥用数据的义务发生冲突。但是,在透明度和自主权与其他重要权利和道德价值观之间取得平衡,并不等于牺牲这些价值观,或者忽视它们在维持公众对数据驱动的实践和组织的信任方面的关键作用【34】。毫无限度的绝对公开将导致整个行业创新动力不足,因此公开的对象应为相关机构和司法人员。其次,要求人工智能提供者承担数据监管义务。人工智能服务的提供者应遵守《网络安全法》《数据安全法》《个人信息保护法》等法律、行政法规的有关规定和主管部门的相关监管要求。人工智能司法应用产生风险的原因,与数据的来源及质量密切相关,数据的不完整、不准确、存在偏差歧视,都可能误导裁判,影响司法公正。因此需要对人工智能提供者施加严苛的监管义务,比如要求人工智能提供者保证利用人工智能生成的内容真实准确,用于人工智能的数据保证数据的真实性、准确性。建立专门的人工智能伦理委员会进行审查和监管,确保人工智能系统的决策公正和合法。


(三)规范人工智能使用者行为


首先,对人工智能裁判进行严格限制。人工智能的问题不是机器有时会作出某个不利于人的决策,而是机器代替人决策这件事本身。适用比例原则审慎判断人工智能司法应用的限度,以司法适用的业务适配性为导向,根据不同的应用场景明确规定应用标准,符合条件的才可进行人工智能的应用。一般简单重复性的工作可以应用人工智能,而对于裁判则需要进行限制,不可直接将人工智能意见作为裁判依据。法官若过度依赖人工智能进行裁判,实质就是将裁判权让渡于人工智能,可能导致法官角色的淡化,裁判结果也可能有损司法公正。最高人民法院在2022年发布的《关于规范和加强人工智能司法应用的意见》明确人工智能的辅助审判原则,规定人工智能辅助结果仅可作为裁判参考,不能取代法官的裁判职能。辅助审判原则不仅强化了审判权的固有配置,还确认了人工智能具有辅助审判的作用【35】。其次,对使用人工智能的司法人员进行必要的提示和培训。在司法实践中,司法人员很容易形成对人工智能技术的路径依赖和心理依赖,从而对人工智能技术盲目信赖,甚至盲从,进而产生司法适用的风险。因此,有必要就人工智能、数据安全等相关问题举办定期或专项培训,提升司法人员人工智能的知识储备,提高司法人员在日常工作中保护数据安全、审慎处理数据的意识,防止司法人员受到错误信息的误导,或者无意识导致数据泄露安全问题。司法人员在具体应用时坚持人工智能的辅助性定位和“司法主导算法”的应用逻辑,避免陷入对人工智能的技术依赖【36】。最后,司法机关可以设置专门的信息核查机制、数据安全审计制度、问责机制等,明确规定人工智能司法应用的责任。人工智能技术对传统正当程序理论造成冲击,“技术性程序正义”理论通过强调透明性、准确性、可问责性、参与性等核心要素,为人工智能技术介入司法领域的程序正义保障提供了理论框架【37】。为了保障人工智能司法应用的透明性与可解释性,一方面需要不断优化提升算法技术的透明性、准确性,另一方面应当要求司法人员履行人工智能意见审查说明义务,对参考适用的人工智能意见进行释法说理,对参考过程中的价值判断等部分给予充分论证,强化司法人员在此过程中的可问责性。


总之,人工智能伦理的治理离不开伦理原则的指导,也离不开法律法规的规制。人工智能伦理准则就像是法理一样,可以在法律存在空白时,为解决相关问题提供伦理层面的解决思路,也可以在适用法律原则规则时,为法律原则规则解释适用增加说服力。当法律规范不能完全适用时,人工智能伦理准则可以充当规则来解决问题。人工智能伦理准则主要来源于法理、法律法规,是对法律法规内涵的精神的提炼。这些准则虽然并不具备“硬法”的约束力,但通过制定配套的准则行动指南,也能指导相应的实际工作。有助于公共部门纳入其伦理决策,并通过细化、具体的原则,从技术层面指导相关行动【38】。除制定人工智能伦理准则框架,还需要明确伦理主体责任,主要就是人工智能提供者及使用者的责任。以伦理政策为导向,增加伦理风险预见机制和伦理风险评估机制。


结语


良好的司法是保障自由的基础,应在司法领域中给予人工智能合理的定位,坚守人作为主体的立场,维护人格尊严,保障人不被工具化。人工智能不应剥夺人的道德主体性,是司法领域人工智能应用的基本准则。若权利内容如何、给予何种救济的决定都出自机器,那么将违背科学伦理。伦理对技术领域的引导非常重要,伦理规范可以发挥软性约束的引导作用,确保人工智能技术发展符合人类伦理价值。人工智能是否会促进社会进步,关键在于我们是否在伦理和法律方面做好了应对的准备。人工智能司法的应用给司法领域带来了机遇和挑战。面对人工智能司法应用产生的风险,应首先明确人工智能司法的定位是司法裁判活动的辅助手段,在关注人工智能司法应用的积极作用时,也需注意预防人工智能司法应用可能的风险。人工智能司法的规制需要与科技的发展保持同步,不断进行评估和更新,以适应不断变化的社会需求和法律环境,确保司法公正、透明。科学技术的发展带来深刻的人类主体性危机,必须坚守人的尊严和主体性,倘若把人降格为物,进而使人成为技术操控的对象,将改变人的定义,分解人类的价值。


注释


上下滑动阅览

【1】马长山:《司法人工智能的重塑效应及其限度》,《法学研究》2020年第4期,第23-40页。

【2】李醒民:《人工智能技性科学与伦理》,《社会科学论坛》2019年第4期,第179-203页。

【3】陈元、黄秋生:《ChatGPT技术中的人工智能伦理风险及其科学祛魅》,《湖南科技大学学报(社会科学版)》2023年第3期,第135-142页。

【4】王英、张睿婵、王铖:《我国大数据应用中的数据伦理风险及其治理研究进展》,《图书馆工作与研究》2023年第4期,第39-47页。

【5】中国信息通信研究院:《人工智能伦理治理研究报告(2023年)》,2024-02-05,http://www.caict.ac.cn/kxyj/qwfb/ztbg/202312/t20231226_468983.htm。

【6】郭锐:《人工智能的伦理和治理》,北京:法律出版社2020年版,第175页。

【7】刘兴华:《数字全球化时代的技术中立:幻象与现实》,《探索与争鸣》2022年第12期,第34-44页。

【8】戴茂堂、赵红梅:《关于人工智能技术的另一种哲学解读》,《华东师范大学学报(哲学社会科学版)》2023年第5期,第13-24页。

【9】中国社会科学院法学研究所、社会科学文献出版社编:《法治蓝皮书·中国法院信息化发展报告》,2023-12-15,https://www.chinacourt.org/article/detail/2023/05/id/7309498.shtml。

【10】埃里克·沃格林:《新政治科学》,段保良译,北京:商务印书馆2018年版,第10-19页。

【11】龚善要:《人工智能司法应用的实践审思与完善》,《国家检察官学院学报》2023年第5期,第95-108页。

【12】Eugene Volokh, “Chief Justice Robots”, Duke Law Journal, 2019, Vol.68, pp.1135-1192.

【13】Cass R. Sunstein, “Of Artifical Intelligenceand Legal Reasoning”, Public Law & Legal Theory Working Papers, 2001, No.18.

【14】张玫瑰:《司法裁判中人工智能应用的限度及规制》,《政法论丛》2023年第5期,第128-138页。

【15】郑志峰:《人工智能立法的一般范畴》,《数字法治》2023年第6期,第55-75页。
【16】郑见涛:《人工智能在法律领域的发展与规制》,《中国司法》2021年第10期,第37-43页。

【17】郑曦:《生成式人工智能在司法中的运用:前景、风险与规制》,《中国应用法学》2023年第4期,第81-93页。

【18】刘东亮:《技术性正当程序:人工智能时代程序法和算法的双重变奏》,《比较法研究》第2020年第5期,第64-79页。
【19】卢克·多梅尔:《算法时代:新经济的新引擎》,胡小锐等译,北京:中信出版社2016年版,第139页。

【20】雷磊:《司法人工智能能否实现司法公正?》,《政法论丛》2022年第4期,第72-82页。

【21】凯文·阿什利:《人工智能与法律解析》,邱昭继译,北京:商务印书馆2020版,第16页。

【22】宋旭光:《论司法裁判的人工智能化及其限度》,《比较法研究》2020年第5期,第80-92页。

【23】周维栋:《生成式人工智能类案裁判的标准及价值边界》,《东方法学》2023年第3期,第47-60页。

【24】焦宝乾、赵岩:《人工智能对法官思维的影响》,《求是学刊》2022年第4期,第115-125页。

【25】杰弗里·布兰德:《法治的界限:越法裁判的伦理》,娄曲亢译,北京:中国人民大学出版社2016年版,第313页。
【26】王禄生:《司法大数据与人工智能技术应用的风险及伦理规制》,《法商研究》2019年第2期,第101-112页。

【27】王静:《智慧司法的伦理风险及其应对》,《法学论坛》2024年第2期,第106-118页。

【28】中华人民共和国外交部:《中国关于加强人工智能伦理治理的立场文件》,2023-04-15,https://www.mfa.gov.cn/ziliao_674904/zcwj_674915/202211/t20221117_10976728.shtml。

【29】迈克斯·泰格马克:《生命3.0:人工智能时代人类的进化与重生》,汪婕舒译,杭州:浙江教育出版社2018年版,第12页。

【30】商瀑:《从“智人”到“恶人”:机器风险与应对策略——来自阿西洛马人工智能原则的启示》,《电子政务》2020年第12期,第69-76页。

【31】商建刚:《生成式人工智能风险治理元规则研究》,《东方法学》2023年第3期,第4-17页。

【32】宋华琳:《法治视野下的人工智能伦理规范建构》,《数字法治》2023年第6期,第1-9页。

【33】张凌寒:《生成式人工智能的法律定位与分层治理》,《现代法学》2023年第4期,第126-141页。

【34】Shannon Vallor, “An Introduction to Data Ethics”, 2024-03-20, https://www.scu.edu/media/ethics-center/technology-ethics/IntroToDataEthics.pdf。
【35】林洧:《人工智能司法审判的限度审视与应用路径——基于对ChatGPT算法的法律批判》,《中国矿业大学学报(社会科学版)》2023年第6期,第65-78页。

【36】张琳琳:《人工智能司法应用的责任归结困境与解决路径》,《当代法学》2023年5期,第100-111页。

【37】丰怡凯:《人工智能辅助量刑场景下的程序正义反思与重塑》,《现代法学》2023年第6期,第98-117页。

【38】李卓卓、张楚辉:《数据伦理框架:国际对话与中国化的构建路径》,《情报学报》2024年第2期,第154-166页。




编辑 | 吴雨昊

审核 | 刘今、李玮农


完整原文(含注解)请点击阅读



科学·经济·社会

Science Economy Society






《科学·经济·社会》于2023年重点推出马克思主义与当代中国(含“两个结合”“两创”、人类文明新形态、生态文明等专题)、跨学科研究与理论创新、心智与智能、计算社会科学、科技与哲学/伦理、科技与社会、科技与经济、科技与文化等栏目,及智慧养老、农业伦理等专题,本刊唯一投稿网址为:

http://kjsh.cbpt.cnki.net/

欢迎海内外同仁赐稿!

《科学·经济·社会》始终坚持严格的学术规范与标准,实行匿名审稿制度,并对采用文章支付相应稿酬,绝不以任何名义收取诸如版面费或审稿费等费用,敬请广大作者与读者们注意。

《科学·经济·社会》创办于1983年,系融科学技术与哲学社会科学为一体的综合性学术期刊,于2022年起由季刊变更为双月刊。曾是“甘肃省优秀期刊奖‘品牌期刊’”、全国中文核心期刊、中文社会科学引文索引(CSSCI)来源期刊、CSSCI扩展版来源期刊,现为中国人文社会科学期刊AMI综合评价(A刊)扩展期刊和 “复印报刊资料”重要转载来源期刊。本刊坚持以马克思主义理论为指导,以研究科学、技术与社会的协调发展为宗旨,突出问题意识,聚焦学科交叉,刊登学术论文、海外译稿、书评札记、学界动态等文稿。

科学经济社会
《科学·经济·社会》创办于1983年,系融科学技术与哲学社会科学为一体的综合性学术期刊。本刊以研究科学、技术与社会的协调发展为宗旨,突出问题意识,聚焦学科交叉,刊登学术论文、海外译稿、书评札记、学界动态等文稿。2022年起从季刊变更为双月刊
 最新文章