Key words: artificial intelligence; typology of crimes involved; analysis and response; multiple attribution systems
人工智能体涉罪的类型化分析
刑法作为社会的产物,对人工智能问题的处理,应取决于在宏观层面上人工智能应扮演何种角色。[1]基于不同标准及视角,对人工智能体涉罪的类型化可做不同分类。
(二)金融领域犯罪。人工智能技术在金融领域业务具备一定的应用空间,因而可能被用于实施金融诈骗、操纵市场等犯罪行为。例如,利用AI技术破解密码与验证码,行为人可能逃避系统安全措施,获取相关秘密,从而导致金融领域犯罪的发生。
(三)社交媒体领域犯罪。人工智能具有强大的信息制造能力,可能被用于散播虚假信息、传播谣言等,使人们难以辨别信息的真假。此类信息在社交媒体上的传播将影响公众舆论,甚至破坏社会稳定,带来社交媒体领域的各类犯罪。
三、基于人工智能体在犯罪中担任何种角色的犯罪类型
人工智能体犯罪的应对(预防与治理)
人工智能涉罪类型多样且复杂。为了有效防控相关风险并保障人工智能技术的健康发展,我们需要从立法、监管和技术等多个层面入手进行综合施策。
一、域外应对人工智能体犯罪的相关措施
人工智能体的大规模应用不可避免地会涉及到法律和刑法的调整和干预,亦会对刑法的解释和适用产生深远影响。如何用最具强制力的刑事法律控制和预防人工智能体涉及的严重危害人类社会的活动,是各国刑事法学者不可回避的严肃课题和不可推卸的重大责任。[4]从世界范围上看,各国均对人工智能体犯罪的预防和治理采取了一定措施。美国对于人工智实体的监管策略倾向于较为宽松的“柔性监管”模式。虽然国会与部分州已开始采取措施保护公众免受技术潜在危害,美国国家标准与技术研究院(NIST)亦于2023年1月26日发布了《人工智能风险管理框架》及配套使用手册,但专注于保护人们免受人工智能体犯罪危害的联邦立法尚未出现。相比之下,欧盟自2018年起踏上了人工智能治理的规范化之路,25个欧洲国家共同签署了《人工智能合作宣言》,号召各国加强团结,在人工智能领域探索前行,并解决人工智能技术所带来的社会、经济、伦理和法律等多重风险。2019年及2021年,欧盟又发布了《可信人工智能伦理指南》与《制定人工智能统一规则并修订相关联盟立法》,分别从软性指导与硬性规定两个维度构建了全面的人工智能治理框架,在体系上较为完备,旨在进一步减少和规避人工智能实体可能引发的刑事风险。
二、我国人工智能体犯罪的预防与治理
着眼于本国,笔者认为,我国对于人工智能体犯罪的预防与治理应从以下方面着手:
在总体上,需要推动打击犯罪的重心从事后回应逐步转向预防、预警、预测的治理模式,从而更好地遏制犯罪的发生。传统的犯罪侦查、治理模式在应对人工智能被滥用犯罪的问题时已显得力不从心,犯罪的技术与数量随着人工智能的发展双重升级,我们需要切实建立完善智能系统、构建良好网络环境、加强数据保护措施等多项措施。在人工智能技术应用之前,就应该引入技术规范于标准,严格管控人工智能产品的研发、流通及使用等关键环节,形成一套全面系统的管理制度。同时,应当加强产品全生命周期的跟踪与监督,避免算法或功能被非法篡改,并提升对潜在风险的应对能力,防止数据被盗用的风险,加强事后风险的处置。此外,我们还应审慎权衡人工智能在具体应用场景中的利弊得失,刑法理论与刑事立法亦需迅速适应人工智能所带来的犯罪形态变化,做出有针对性的回应,推动构建科学合理的规范与制度,力求在最大化其应用价值的同时有效规避潜在风险。最终,我们应从政府单一主导的传统治理模式向政府引导、社会广泛参与的多元共治模式转变,充分激发出社会力量在犯罪治理中的积极作用,共同构建一个更加安全、和谐的社会环境。
具体而言,需要从立法、司法、执法上完善相关制度,加强技术研发与监管力度,促进国际合作与交流,完善归责体系。
首先是立法、司法与执法层面。笔者认为,在立法上,应当制定和完善相关法律法规,明确人工智能犯罪的责任主体、归责原则和处罚措施等,完善相关司法解释和刑法规定,将涉及人工智能的犯罪行为纳入法律规制范畴, 增设滥用人工智能类犯罪等预防性立法条款。在司法层面上,应加强对人工智能犯罪案件的审理和判决工作,确保归责体系的准确性和公正性得到体现。在执法层面上,则应加大对人工智能犯罪的打击力度和监管力度,确保相关主体能够切实履行法律责任和义务。
其次是技术的研发与监管层面。人工智能技术的研发者与操作者应实施有效的风险管理措施,确保AI系统的安全性和准确性。通过加强技术研发和监管力度,提高人工智能系统的安全性和可靠性,进而降低其被用于犯罪活动的风险。有关部门也应加强对人工智能技术的有效监管,确保其合法、安全使用。
再次是加强国际合作与交流层面。人工智能犯罪是全球共同面对的时代课题,预防和治理人工智能体犯罪,需要加强与其他国家和地区的合作与交流,与他国共同应对人工智能犯罪带来的挑战和风险,推动形成全球统一的人工智能技术标准和法律框架。
最后是完善归责体系层面。随着人工智能与机器人科技领域的迅猛进步,其应用场景日益丰富多样,但与此同时,也催生了一系列复杂多变的安全隐患及刑法责任归属的挑战。目前,人工智能尚未获得法律认可的主体地位,因此无法直接直接承担刑事责任,但人工智能所可能实施的违法行为,无疑对个人权益、社会秩序乃至国家安全构成了严重威胁,亟需确立责任归属机制。为此,构建一个针对人工智能犯罪的多元化责任分配框架显得尤为重要。
笔者认为,构建基于人工智能涉罪的多元归责体系,在整体上应坚持三大原则:明确人工智能的法律主体资格,注重行为与责任相符,并将法律与技术相结合。就人工智能的法律主体资格而言,目前人工智能并不具有法律主体资格,当人工智能实施犯罪行为时,不能将其认定为犯罪主体。因此,应当明确包括开发者、使用者、管理者等在内的各个主体的责任,当犯罪发生时,应追究控制或指挥人工智能的自然人或单位的刑事责任。此外,在构建归责体系时,应强调行为与责任相匹配的内在逻辑,根据人工智能系统的行为及其造成的后果,确定相应的责任类型和程度。在涉及人工智能的犯罪案件中,刑事责任的分配应依据具体犯罪的入罪标准与出罪情形、行为人的主观心态等因素以及涉人工智能的刑事司法政策进行具体判定。例如,若人工智能实施危害行为的智能源自其研发设计者,则研发设计者可能承担相应的刑事责任;若源自使用者,则使用者可能成为责任主体。而在归责过程中,既要考虑法律的规定和要求,也要结合人工智能技术的特点和实际情况,将二者相结合,进而确保归责的准确性和公正性。
细化到多元归责体系的具体构建,首先,应当明确责任的不同类型。从责任类型上看,人工智能涉罪的责任主要涉及四大类,即代理责任、过失责任、严格责任和独立责任。笔者认为,当人工智能系统作为工具或手段被用于实施犯罪行为时,其背后的开发者、使用者或管理者应当承担代理责任。当人工智能系统的开发者、使用者或管理者因疏忽大意或过于自信而导致系统出现安全隐患或漏洞,进而引发犯罪行为时,其应当承担过失责任。在特定情况下,无论开发者、使用者或管理者是否存在过错,只要人工智能系统实施了犯罪行为并造成了严重后果的,相关主体均需承担的严格法律责任,但此种责任应当受到严格限制,谨防滥用。而随着人工智能技术的不断发展,未来可能出现具有高度自主性和智能性的强人工智能,在这种情况下,可以探讨是否应赋予人工智能系统独立的法律人格和刑事责任能力,但这一模式的实现需要建立在充分的技术论证和法律支持之上,并需考虑伦理、道德和社会接受度等多方面的因素。
其次,有必要区分过失犯罪与故意犯罪的刑事归责。在我国刑法体系中,刑事归责即指将违反刑事义务的行为归因于行为人,确定其刑事责任。鉴于高度理性的人工智能体拥有精准的预见力与全面的认知能力,它们不仅能创造并实现法律所禁止的风险,还能通过精密运算有效控制风险,减少乃至避免其发生。因此,一旦人工智能实施侵害行为,就理应承担所有不利后果。然而,传统刑法因坚守主客观相统一的原则,难以全面覆盖人工智能犯罪的新情况,导致部分刑事责任无法准确归属到合适的责任主体,从而产生了责任分配的空白地带。因此这要求我们从刑事案件的实际出发,区分人工智能体涉过失犯罪与故意犯罪的不同刑事归责,以确保责任归属的准确性和全面性。
从人工智能涉及的过失犯罪刑事归责来看,人工智能技术特征和技术风险与我国过失犯罪理论中的归责要素相抵触,导致刑事责任无法得到有效分配。例如,人工智能体的预见不能冲击了传统过失犯罪的归责基础;人工智能技术缺乏前置规范导致注意义务难以判断;人工智能体犯罪行为与结果之间关系错综阻滞了责任的分配等等,这些矛盾也对我国当前的过失犯罪归责构造产生了一系列冲击。对此,笔者认为可以从以下几个维度对归责体系进行优化与完善。
第一,推进从意志归责向规范归责转型。当前,我国过失犯罪理论的核心在于行为人的预见可能性及其自由意志,然而,人工智能体的介入却对此传统归责基础产生了冲击。与意志归责不同,规范归责侧重于判断行为是否违反了既定规范,并据此分配刑事责任。在人工智能领域,其刑事责任风险实为现代技术风险与制度风险的集中体现,传统基于预见可能性的归责逻辑已难以适用。因此,有必要从规范层面构建风险预防机制,通过规范归责,实现责任的有效配置,以防范人工智能刑事责任风险的过度累积。
第二,构建“主体-主体”关系的责任分配模式。我国《刑法》第25条规定,二人以上共同过失犯罪,不以共同犯罪论处;应当负刑事责任的,按照他们所犯的罪分别处罚。此规定反映出我国现行法律对共同过失犯罪责任归属的局限性,即侧重于“主体-客体”关系,而忽视了不同主体间的责任划分。随着科技的进步与工业社会的复杂化,人工智能的设计、生产、使用等环节紧密相连,传统的责任追溯方式已难以满足现实需求。因此,应构建以“主体-主体”关系为基础的横向风险分配模式,从而明确各环节主体的责任边界,实现风险与责任的合理分配。
第三,明确注意义务的来源。传统刑法理论中,注意义务主要来源于法定义务、行业义务、社会义务及引发义务。当下,对于人工智能体的设计者及生产者注意义务的来源存在较大争议。笔者认为,在过失犯罪中,应当对人工智能体的设计者及生产者施加以较为严格的注意义务,综合考虑刑法规范目的与注意义务判断的可能性,并将行业规章、标准、伦理等要求纳入其注意义务范畴,以确保刑法目的的实现,同时避免不合理的注意义务负担。
而从人工智能涉及的故意犯罪刑事归责来看,需要明确的前提是,在行为人利用人工智能体进行故意犯罪的情况下,人工智能实质上是自然人行为的延伸。若行为人完全掌控人工智能体,且人工智能体严格遵循行为人的指令行动,那么一旦犯罪行为发生,刑事责任应完全归属于行为人。在此情境下,人工智能体仅仅是行为人意愿的执行者,其行为并未超越行为人的控制范畴。然而,当人工智能体的行为偏离了行为人的指令时,刑事责任的归属问题便变得十分复杂。这种情况通常可以借助传统刑法理论中的事实认识错误理论来寻求解决方案。具体来说,在利用人工智能体实施犯罪的过程中,由于人工智能的介入,可能导致行为人的行为出现偏差,进而产生具体事实认识错误中的打击错误或抽象事实认识错误中的类似情形。笔者认为,在利用人工智能体实施故意犯罪的情境下,尽管人工智能体作为新兴技术特征的犯罪工具对犯罪流程产生了不同影响,可能导致犯罪意图、犯罪行为及犯罪结果出现偏差,但这并不与传统犯罪理论相悖,刑事归责原则也不会发生根本性变化,可以借助传统刑事归责框架进行分析。需要更加注意的是独立型人工智能体所犯的故意犯罪,这类人工智能体具备类似人类的辨认能力和控制能力,能够在一定程度上理解和评估自己的行为及其后果。因此,从法律角度来看,它们应被赋予刑事责任能力,即对自己的犯罪行为承担相应的法律责任。由此可见,探讨人工智能涉及的故意犯罪刑事归责,本质上是对其刑事责任能力的剖析,并基于此作出不同的刑事归责处理。
刑法作为社会的产物,对人工智能问题的处理,应取决于在宏观层面上人工智能应扮演何种角色。基于不同标准及视角,对人工智能体涉罪的类型化可做不同分类。
结语
随着人工智能技术的迅猛发展,人工智能体涉罪问题已成为全球法律界关注的焦点。本文围绕人工智能体涉罪的类型化分析及应对策略,进行了深入而全面的探讨。
在类型化分析部分,笔者从不同维度对人工智能体涉罪进行了分类。基于人工智能技术特性,将涉罪类型分为诈骗类犯罪、涉计算机类犯罪、传播淫秽信息或传授犯罪方法类犯罪、侵害人格权类犯罪以及侵犯知识产权类犯罪;从人工智能应用领域出发,将其涉罪类型划分为自动驾驶领域犯罪、金融领域犯罪以及社交媒体领域犯罪;从人工智能在犯罪中担任的角色入手,将其涉罪类型划分为独立型、对象型以及工具型三类。这些分类揭示了人工智能技术在犯罪中的具体应用方式,基于此,笔者试图为相关犯罪预防和打击提出建议和思路。
通过本文的探讨,笔者希望能够为相关领域的研究和实践提供一定的参考和借鉴。而随着人工智能的不断发展,其相关犯罪的应对和治理将是一个复杂而长期的过程,仍需不断完善相关规制体系,从而有效地应对人工智能技术带来的法律挑战和风险。
附:参考文献
【1】参见危派:《人工智能体的刑法定位研究》,河北大学2021年博士论文。
【2】参见刘宪权、房慧颖:《涉人工智能犯罪的类型及刑法应对策略》,载《上海法学研究》集刊2019年第3卷。
【3】参见吕江鸿:《利用人工智能实施犯罪的刑法应对研究》:载《南宁师范大学学报(哲学社会科学版)》2022年第5期。
秦建军
■ 北京市盈科(深圳)律师事务所 刑民交叉法律事务中心高级顾问、广东省法学会刑法学研究会常务理事
■ 执业领域:刑事辩护及代理、争议解决
撰稿:秦建军