人工智能体涉罪类型化分析及应对

企业   2025-01-25 10:00   广东  

【内容提要】随着人工智能技术的不断发展,其自主性和智能性将不断提高,给归责体系的建立带来了挑战和不确定性。在探讨人工智能的刑事责任主体地位时,需平衡法律与伦理的关系,确保归责体系的建立既符合法律要求又符合社会伦理标准。赋予人工智能系统独立的法律人格和刑事责任能力是一个值得探讨的话题。构建基于人工智能涉罪的多元归责体系是一个复杂而细致的任务,需多方面的努力和配合。通过明确归责原则、采用多元归责模式、加强实践应用与挑战应对以及提出相关建议与展望等措施,以有效地应对人工智能技术带来的法律挑战和风险。


Abstract: With the continuous development of AI technology, its autonomy and intelligence will continue to increase, bringing greater challenges and uncertainties to the establishment of the attribution system. In exploring the status of the subject of criminal responsibility of AI, it is necessary to balance the relationship between law and ethics to ensure that the establishment of the attribution system meets both legal requirements and social and ethical standards. Giving AI systems independent legal personality and the capacity to be held criminally responsible is an issue worth exploring. The establishment of a multiple attribution system based on AI-related crimes is a complex and meticulous task that requires the efforts and cooperation of many parties. By implementing measures such as clarifying the principles of attribution, adopting multiple modes of attribution, strengthening practical application and response to challenges, and putting forward relevant suggestions and perspectives, we can effectively deal with the legal challenges and risks posed by AI technology.

【关键词】人工智能体;涉罪类型化;分析及应对;多元归责体系

Key words: artificial intelligence; typology of crimes involved; analysis and response; multiple attribution systems

人工智能体涉罪的类型化分析



刑法作为社会的产物,对人工智能问题的处理,应取决于在宏观层面上人工智能应扮演何种角色。[1]基于不同标准及视角,对人工智能体涉罪的类型化可做不同分类。

一、基于人工智能体技术特性的犯罪类型


根据人工智能体不同的技术特性,可将其涉罪的类型分为以下五类。


(一)诈骗类犯罪。生成式人工智能因其显著的“类人性”特征,能够轻易获取人们信赖,这一技术特性为诈骗类犯罪活动提供了极为有利的条件。具言之,行为人可能通过聊天机器人高度模拟真人口吻与人交流,进而引发感情类、财产类诈骗;通过人工智能技术生成虚假信息或链接,诱骗受害者点击下载,进而骗取财产或个人信息。


(二)涉计算机类犯罪。此类犯罪类型主要涉及对计算机系统的恶意破坏。如,行为人通过篡改人工智能系统的后台程序算法,可能实施非法侵入计算机信息系统、破坏计算机信息系统数据等犯罪行为。此外,人工智能技术也可能被用于开发恶意软件,进而攻击和破坏其他计算机系统。


(三)传播淫秽信息、传授犯罪方法类犯罪。人工智能系统能够抓取海量数据并通过深度学习算法生成检索内容。基于此特性,一旦此类人工智能技术被用于获取违法犯罪信息,将极大降低犯罪的成本,从而导致传播淫秽信息或传授犯罪方法类犯罪的发生。


(四)侵害人格权类犯罪。人工智能系统能够对海量信息进行加工与整合,其中也包括了涉及个人隐私的信息。若用户不加甄别地使用、盲目引用未经核实的信息,可能涉嫌侮辱、诽谤、侵犯公民个人信息等侵害人格权类犯罪。


(五)侵犯知识产权类犯罪。人工智能系统在训练过程中可能使用大量公开但受著作权保护的作品。若行为人的引用或加工程度不当,则可能构成侵犯著作权等犯罪。


二、基于人工智能体应用领域的犯罪类型

  以应用的不同领域为切入点,可以将人工智能体的涉罪类型分为以下三类。


(一)自动驾驶领域犯罪。随着人工智能技术的不断更新迭代,自动驾驶的应用与普及日渐发展,应用场景不断扩大。若自动驾驶汽车因程序设计缺陷或算法错误导致交通事故,可能涉及交通肇事罪等过失犯罪。此时,智能机器人的设计者或生产者可能成为责任主体。

    (二)金融领域犯罪。人工智能技术在金融领域业务具备一定的应用空间,因而可能被用于实施金融诈骗、操纵市场等犯罪行为。例如,利用AI技术破解密码与验证码,行为人可能逃避系统安全措施,获取相关秘密,从而导致金融领域犯罪的发生。

    (三)社交媒体领域犯罪。人工智能具有强大的信息制造能力,可能被用于散播虚假信息、传播谣言等,使人们难以辨别信息的真假。此类信息在社交媒体上的传播将影响公众舆论,甚至破坏社会稳定,带来社交媒体领域的各类犯罪。

    三、基于人工智能体在犯罪中担任何种角色的犯罪类型


从人工智能在犯罪中担任的角色入手,人工智能体涉罪类型可以划分为以下三类。


(一)独立型人工智能体犯罪。独立型人工智能体犯罪,即人工智能体在犯罪的过程中利用其自身存在的意识而独立实施了犯罪行为。[2]虽然在未来较长的一段时期内,人工智能仍将继续处在由弱到强的过渡时期,但随着技术的发展,人工智能体终将逐渐具备独立决策能力和意志,不再处于人类的绝对控制中,彼时若仍仅对强人工智能的设计者或使用者追究刑事责任则明显不妥。届时,我国刑罚体系需进行必要的重构,增设专为强智能机器人设计的刑罚措施,以解决现有刑法中刑罚种类无法有效应对此类犯罪的问题。


(二)对象型人工智能体犯罪。对象型人工智能体犯罪,即人工智能体在犯罪过程中充当犯罪对象或被侵害目标的犯罪。现阶段的法律体系能够对采用物理方式破坏人工智能体的行为作出规制,如破坏硬件设备、干扰其正常运行等,可以依据传统的破坏财物、妨害公务等罪名进行处理;针对人工智能体数据的窃取、篡改、非法访问等行为,也可纳入传统犯罪框架,根据其导致的个人隐私泄露、商业秘密被窃取等后果将其置于盗窃、非法侵入计算机信息系统等犯罪中处理。


(三)工具型人工智能体犯罪。顾名思义,即行为人利用人工智能实施犯罪,在此过程中,人工智能体扮演了纯粹的工具角色。在这种情境下,尽管工具型人工智能体犯罪在形式上与传统犯罪方式无本质区别,[3]但它却在一定程度上简化了犯罪过程,从而加剧了传统犯罪所带来的社会危害性。鉴于此,对于工具型人工智能体犯罪的处理,笔者认为其本质是人工智能技术的滥用,故应当对幕后操纵者科处刑罚。

人工智能体犯罪的应对(预防与治理)



人工智能涉罪类型多样且复杂。为了有效防控相关风险并保障人工智能技术的健康发展,我们需要从立法、监管和技术等多个层面入手进行综合施策。

一、域外应对人工智能体犯罪的相关措施

人工智能体的大规模应用不可避免地会涉及到法律和刑法的调整和干预,亦会对刑法的解释和适用产生深远影响。如何用最具强制力的刑事法律控制和预防人工智能体涉及的严重危害人类社会的活动,是各国刑事法学者不可回避的严肃课题和不可推卸的重大责任。[4]从世界范围上看,各国均对人工智能体犯罪的预防和治理采取了一定措施。美国对于人工智实体的监管策略倾向于较为宽松的“柔性监管”模式。虽然国会与部分州已开始采取措施保护公众免受技术潜在危害,美国国家标准与技术研究院(NIST)亦于2023年1月26日发布了《人工智能风险管理框架》及配套使用手册,但专注于保护人们免受人工智能体犯罪危害的联邦立法尚未出现。相比之下,欧盟自2018年起踏上了人工智能治理的规范化之路,25个欧洲国家共同签署了《人工智能合作宣言》,号召各国加强团结,在人工智能领域探索前行,并解决人工智能技术所带来的社会、经济、伦理和法律等多重风险。2019年及2021年,欧盟又发布了《可信人工智能伦理指南》与《制定人工智能统一规则并修订相关联盟立法》,分别从软性指导与硬性规定两个维度构建了全面的人工智能治理框架,在体系上较为完备,旨在进一步减少和规避人工智能实体可能引发的刑事风险。

二、我国人工智能体犯罪的预防与治理

着眼于本国,笔者认为,我国对于人工智能体犯罪的预防与治理应从以下方面着手:

在总体上,需要推动打击犯罪的重心从事后回应逐步转向预防、预警、预测的治理模式,从而更好地遏制犯罪的发生。传统的犯罪侦查、治理模式在应对人工智能被滥用犯罪的问题时已显得力不从心,犯罪的技术与数量随着人工智能的发展双重升级,我们需要切实建立完善智能系统、构建良好网络环境、加强数据保护措施等多项措施。在人工智能技术应用之前,就应该引入技术规范于标准,严格管控人工智能产品的研发、流通及使用等关键环节,形成一套全面系统的管理制度。同时,应当加强产品全生命周期的跟踪与监督,避免算法或功能被非法篡改,并提升对潜在风险的应对能力,防止数据被盗用的风险,加强事后风险的处置。此外,我们还应审慎权衡人工智能在具体应用场景中的利弊得失,刑法理论与刑事立法亦需迅速适应人工智能所带来的犯罪形态变化,做出有针对性的回应,推动构建科学合理的规范与制度,力求在最大化其应用价值的同时有效规避潜在风险。最终,我们应从政府单一主导的传统治理模式向政府引导、社会广泛参与的多元共治模式转变,充分激发出社会力量在犯罪治理中的积极作用,共同构建一个更加安全、和谐的社会环境。

具体而言,需要从立法、司法、执法上完善相关制度,加强技术研发与监管力度,促进国际合作与交流,完善归责体系。

首先是立法、司法与执法层面。笔者认为,在立法上,应当制定和完善相关法律法规,明确人工智能犯罪的责任主体、归责原则和处罚措施等,完善相关司法解释和刑法规定,将涉及人工智能的犯罪行为纳入法律规制范畴, 增设滥用人工智能类犯罪等预防性立法条款。在司法层面上,应加强对人工智能犯罪案件的审理和判决工作,确保归责体系的准确性和公正性得到体现。在执法层面上,则应加大对人工智能犯罪的打击力度和监管力度,确保相关主体能够切实履行法律责任和义务。

其次是技术的研发与监管层面。人工智能技术的研发者与操作者应实施有效的风险管理措施,确保AI系统的安全性和准确性。通过加强技术研发和监管力度,提高人工智能系统的安全性和可靠性,进而降低其被用于犯罪活动的风险。有关部门也应加强对人工智能技术的有效监管,确保其合法、安全使用。

再次是加强国际合作与交流层面。人工智能犯罪是全球共同面对的时代课题,预防和治理人工智能体犯罪,需要加强与其他国家和地区的合作与交流,与他国共同应对人工智能犯罪带来的挑战和风险,推动形成全球统一的人工智能技术标准和法律框架。

最后是完善归责体系层面。随着人工智能与机器人科技领域的迅猛进步,其应用场景日益丰富多样,但与此同时,也催生了一系列复杂多变的安全隐患及刑法责任归属的挑战。目前,人工智能尚未获得法律认可的主体地位,因此无法直接直接承担刑事责任,但人工智能所可能实施的违法行为,无疑对个人权益、社会秩序乃至国家安全构成了严重威胁,亟需确立责任归属机制。为此,构建一个针对人工智能犯罪的多元化责任分配框架显得尤为重要。

笔者认为,构建基于人工智能涉罪的多元归责体系,在整体上应坚持三大原则:明确人工智能的法律主体资格,注重行为与责任相符,并将法律与技术相结合。就人工智能的法律主体资格而言,目前人工智能并不具有法律主体资格,当人工智能实施犯罪行为时,不能将其认定为犯罪主体。因此,应当明确包括开发者、使用者、管理者等在内的各个主体的责任,当犯罪发生时,应追究控制或指挥人工智能的自然人或单位的刑事责任。此外,在构建归责体系时,应强调行为与责任相匹配的内在逻辑,根据人工智能系统的行为及其造成的后果,确定相应的责任类型和程度。在涉及人工智能的犯罪案件中,刑事责任的分配应依据具体犯罪的入罪标准与出罪情形、行为人的主观心态等因素以及涉人工智能的刑事司法政策进行具体判定。例如,若人工智能实施危害行为的智能源自其研发设计者,则研发设计者可能承担相应的刑事责任;若源自使用者,则使用者可能成为责任主体。而在归责过程中,既要考虑法律的规定和要求,也要结合人工智能技术的特点和实际情况,将二者相结合,进而确保归责的准确性和公正性。

细化到多元归责体系的具体构建,首先,应当明确责任的不同类型。从责任类型上看,人工智能涉罪的责任主要涉及四大类,即代理责任、过失责任、严格责任和独立责任。笔者认为,当人工智能系统作为工具或手段被用于实施犯罪行为时,其背后的开发者、使用者或管理者应当承担代理责任。当人工智能系统的开发者、使用者或管理者因疏忽大意或过于自信而导致系统出现安全隐患或漏洞,进而引发犯罪行为时,其应当承担过失责任。在特定情况下,无论开发者、使用者或管理者是否存在过错,只要人工智能系统实施了犯罪行为并造成了严重后果的,相关主体均需承担的严格法律责任,但此种责任应当受到严格限制,谨防滥用。而随着人工智能技术的不断发展,未来可能出现具有高度自主性和智能性的强人工智能,在这种情况下,可以探讨是否应赋予人工智能系统独立的法律人格和刑事责任能力,但这一模式的实现需要建立在充分的技术论证和法律支持之上,并需考虑伦理、道德和社会接受度等多方面的因素。

其次,有必要区分过失犯罪与故意犯罪的刑事归责。在我国刑法体系中,刑事归责即指将违反刑事义务的行为归因于行为人,确定其刑事责任。鉴于高度理性的人工智能体拥有精准的预见力与全面的认知能力,它们不仅能创造并实现法律所禁止的风险,还能通过精密运算有效控制风险,减少乃至避免其发生。因此,一旦人工智能实施侵害行为,就理应承担所有不利后果。然而,传统刑法因坚守主客观相统一的原则,难以全面覆盖人工智能犯罪的新情况,导致部分刑事责任无法准确归属到合适的责任主体,从而产生了责任分配的空白地带。因此这要求我们从刑事案件的实际出发,区分人工智能体涉过失犯罪与故意犯罪的不同刑事归责,以确保责任归属的准确性和全面性。

从人工智能涉及的过失犯罪刑事归责来看,人工智能技术特征和技术风险与我国过失犯罪理论中的归责要素相抵触,导致刑事责任无法得到有效分配。例如,人工智能体的预见不能冲击了传统过失犯罪的归责基础;人工智能技术缺乏前置规范导致注意义务难以判断;人工智能体犯罪行为与结果之间关系错综阻滞了责任的分配等等,这些矛盾也对我国当前的过失犯罪归责构造产生了一系列冲击。对此,笔者认为可以从以下几个维度对归责体系进行优化与完善。

第一,推进从意志归责向规范归责转型。当前,我国过失犯罪理论的核心在于行为人的预见可能性及其自由意志,然而,人工智能体的介入却对此传统归责基础产生了冲击。与意志归责不同,规范归责侧重于判断行为是否违反了既定规范,并据此分配刑事责任。在人工智能领域,其刑事责任风险实为现代技术风险与制度风险的集中体现,传统基于预见可能性的归责逻辑已难以适用。因此,有必要从规范层面构建风险预防机制,通过规范归责,实现责任的有效配置,以防范人工智能刑事责任风险的过度累积。

第二,构建“主体-主体”关系的责任分配模式。我国《刑法》第25条规定,二人以上共同过失犯罪,不以共同犯罪论处;应当负刑事责任的,按照他们所犯的罪分别处罚。此规定反映出我国现行法律对共同过失犯罪责任归属的局限性,即侧重于“主体-客体”关系,而忽视了不同主体间的责任划分。随着科技的进步与工业社会的复杂化,人工智能的设计、生产、使用等环节紧密相连,传统的责任追溯方式已难以满足现实需求。因此,应构建以“主体-主体”关系为基础的横向风险分配模式,从而明确各环节主体的责任边界,实现风险与责任的合理分配。

第三,明确注意义务的来源。传统刑法理论中,注意义务主要来源于法定义务、行业义务、社会义务及引发义务。当下,对于人工智能体的设计者及生产者注意义务的来源存在较大争议。笔者认为,在过失犯罪中,应当对人工智能体的设计者及生产者施加以较为严格的注意义务,综合考虑刑法规范目的与注意义务判断的可能性,并将行业规章、标准、伦理等要求纳入其注意义务范畴,以确保刑法目的的实现,同时避免不合理的注意义务负担。

第四,逐步以合义务替代行为理论。传统过失犯罪理论对行为与结果间因果关系的考察侧重于事实层面,但随着社会的发展及科技的进步,事实层面的因果关系愈发难以把握,人工智能技术的复杂性更是加剧了这一困境,带来了更多的不可控且难以查明的因素。因此,引入合义务替代行为理论,即以符合注意义务的行为替代违反注意义务的行为,并考察结果是否会发生,在一定程度上有利于克服归责困境,不仅具有操作可行性,还能在一定程度上摆脱对事实因果关系的过度依赖。

而从人工智能涉及的故意犯罪刑事归责来看,需要明确的前提是,在行为人利用人工智能体进行故意犯罪的情况下,人工智能实质上是自然人行为的延伸。若行为人完全掌控人工智能体,且人工智能体严格遵循行为人的指令行动,那么一旦犯罪行为发生,刑事责任应完全归属于行为人。在此情境下,人工智能体仅仅是行为人意愿的执行者,其行为并未超越行为人的控制范畴。然而,当人工智能体的行为偏离了行为人的指令时,刑事责任的归属问题便变得十分复杂。这种情况通常可以借助传统刑法理论中的事实认识错误理论来寻求解决方案。具体来说,在利用人工智能体实施犯罪的过程中,由于人工智能的介入,可能导致行为人的行为出现偏差,进而产生具体事实认识错误中的打击错误或抽象事实认识错误中的类似情形。笔者认为,在利用人工智能体实施故意犯罪的情境下,尽管人工智能体作为新兴技术特征的犯罪工具对犯罪流程产生了不同影响,可能导致犯罪意图、犯罪行为及犯罪结果出现偏差,但这并不与传统犯罪理论相悖,刑事归责原则也不会发生根本性变化,可以借助传统刑事归责框架进行分析。需要更加注意的是独立型人工智能体所犯的故意犯罪,这类人工智能体具备类似人类的辨认能力和控制能力,能够在一定程度上理解和评估自己的行为及其后果。因此,从法律角度来看,它们应被赋予刑事责任能力,即对自己的犯罪行为承担相应的法律责任。由此可见,探讨人工智能涉及的故意犯罪刑事归责,本质上是对其刑事责任能力的剖析,并基于此作出不同的刑事归责处理。

刑法作为社会的产物,对人工智能问题的处理,应取决于在宏观层面上人工智能应扮演何种角色。基于不同标准及视角,对人工智能体涉罪的类型化可做不同分类。

结语



随着人工智能技术的迅猛发展,人工智能体涉罪问题已成为全球法律界关注的焦点。本文围绕人工智能体涉罪的类型化分析及应对策略,进行了深入而全面的探讨。

在类型化分析部分,笔者从不同维度对人工智能体涉罪进行了分类。基于人工智能技术特性,将涉罪类型分为诈骗类犯罪、涉计算机类犯罪、传播淫秽信息或传授犯罪方法类犯罪、侵害人格权类犯罪以及侵犯知识产权类犯罪;从人工智能应用领域出发,将其涉罪类型划分为自动驾驶领域犯罪、金融领域犯罪以及社交媒体领域犯罪;从人工智能在犯罪中担任的角色入手,将其涉罪类型划分为独立型、对象型以及工具型三类。这些分类揭示了人工智能技术在犯罪中的具体应用方式,基于此,笔者试图为相关犯罪预防和打击提出建议和思路。

在应对策略部分,本文着重探讨了人工智能体犯罪的预防与治理,结合域外相关措施与我国实际情况,从立法、司法、执法、技术研发与监管、国际合作与交流以及归责体系完善等多个层面进行综合施策的建议。特别是在归责体系完善方面,笔者认为,应当强调构建基于人工智能涉罪的多元归责体系的重要性,在具体归责上明确责任类型、区分过失犯罪与故意犯罪的刑事归责,从而确保人工智能体犯罪的刑事责任能够准确、公正地归属于相关主体,从而有效遏制人工智能犯罪的蔓延。

通过本文的探讨,笔者希望能够为相关领域的研究和实践提供一定的参考和借鉴。而随着人工智能的不断发展,其相关犯罪的应对和治理将是一个复杂而长期的过程,仍需不断完善相关规制体系,从而有效地应对人工智能技术带来的法律挑战和风险。

附:参考文献

【1】参见危派:《人工智能体的刑法定位研究》,河北大学2021年博士论文。

【2参见刘宪权、房慧颖:《涉人工智能犯罪的类型及刑法应对策略》,载《上海法学研究》集刊2019年第3卷。

【3】参见吕江鸿:《利用人工智能实施犯罪的刑法应对研究》:载《南宁师范大学学报(哲学社会科学版)》2022年第5期。

【4】参见张旭、杨率一:《恪守与厘革之间:人工智能刑事风险及刑法应对的进路选择》,载《吉林大学社会科学学21年第5期。
//本文作者

秦建军

 北京市盈科(深圳)律师事务所 刑民交叉法律事务中心高级顾问、广东省法学会刑法学研究会常务理事

 执业领域:刑事辩护及代理、争议解决

撰稿:秦建军

审核:王光英子
排版:郑玉洁




· 相关阅读 ·

遭遇电信网络诈骗,被害人能否起诉卡主挽回损失?

猴子抢过摄像机,按下快门,著作权属于谁?——兼论传统法律规制人工智能时代

海外用户涌入小红书——流量红利与合规挑战的双重奏

盈科深圳律师事务所
品牌宣传、经验分享、法律咨询
 最新文章