↑关注网络与信息法学会 获得更多精彩
编者按
分论坛四于2024年9月21日举行,主题为“人工智能高质量发展和高水平安全的法治保障”,由中国社会科学院信息情报研究院编审李延枫主持。
北京互联网法院审判委员会专职委员孙铭溪以人工智能视阈下的人格权保护为主题进行报告。她讨论了人工智能背景下的人格权保护问题,首先介绍了一起关于基于自然人形象创建虚拟角色引发的侵权案,接着探讨了一个配音师的声音被用于AI产品而引发的争议,讨论了声音识别标准及其在技术背景下的复杂性。最后提到一起AI换脸案件,强调了在新情境下肖像权保护范围可能面临的挑战。她认为随着技术进步,人格权保护需适应新的数据环境以应对未来的数据市场发展。
北京市中伦律师事务所合伙人陈际红律师分享了构建大模型预训练语料集的法律困境与路径思考,他认为,人工智能快速发展背景下,大模型训练语料的质量和数量已经成为关键,推动大模型语料合规治理也是推动大模型平稳发展的应有之义。目前世界各国针对大模型训练数据的版权、个人信息保护、数据合规等进行了立法,中国人工智能监管规则也提出了训练数据合规性的要求,需要在利益平衡的背景下去考虑作品使用、数据获取与大模型研发的产业实际需求。在此过程中可以参考著作权集体管理组织、开源共享模式等合理高效使用作品,另也需采取合规措施以保证外部数据安全、数据质量,避免数据泄露安全事件发生等。数据交易和开源数据库的建设等行业实践提供了有益的参考。
上海政法学院上海司法研究所徐伟教授分享了生成式人工智能部署者侵权责任研究,他认为,履行建立投诉举报机制义务、潜在风险提示义务、显著标识义务不宜作为判断生成式人工智能部署者过错的因素。
广东财经大学法学院姚志伟教授探讨了生成式人工智能服务提供者在私法上的法律性质,他认为,生成式人工智能服务提供者不应该完全套用“网络信息内容生产者”的义务和责任,可参考避风港规则,设计新的有条件豁免侵权责任规则,要求生成式人工智能服务提供者以安全投入来换取免责。
深圳大学法学院副院长宋旭光副教授以“人工智能时代的法律推理模型”为题进行了报告,他指出在大模型出现之前,法律推理主要依赖于手工打造的知识系统,通过逻辑将法律知识表述为计算机语言,这种模式符合演绎逻辑模型,但早期的人工智能研究由于实用性等诸多问题而逐渐走向衰落。随着大模型的兴起,学习算法可以自动处理数据和信息,不再需要手工构建知识系统。他认为,这两种模式恰恰反映出两种司法哲学路径:形式主义与现实主义。当前,尽管大模型能够高效处理大量数据,但仍然面临挑战。这也提示了第一代与第二代人工智能系统结合的可能性。未来的法律人工智能可能会融合两代系统的优点以解决现有难题。
中国网络空间研究院干部郭思源通过生成式人工智能爆火以来的观察对虚假信息危害的新发展进行了探讨,他认为虚假信息在三个方面的潜在危害:一是对国家安全的影响,特别是在政治选举中利用深度伪造和人工智能传播虚假信息;二是针对儿童、青少年及残障人士等特殊群体的危害,包括诱导自杀、滥用药物以及对光敏性癫痫患者等特定疾病患者的恶意攻击;三是对社会稳定的威胁,包括网络犯罪活动的增长以及社交媒体上煽动暴力冲突的行为。他认为随着技术进步,各国正逐步加强对虚假信息的立法监管,但是面对日益复杂的挑战,现有立法仍需不断完善以有效应对这些风险。
中国信通院互联网法律研究中心端晨希工程师从人工智能立法的两个层面与六个问题进行了分享,她提出需要关注法律在数据、算法、应用发展和规范中的作用。建议在分析现行法律法规适用和产业实践需求的基础上,审慎评估论证,采取“渐进式”的人工智能专门性综合性立法模式。
端晨希 中国信通院互联网法律研究中心工程师
广西民族大学法学院徐翕明副教授分享了“深度伪造”场景下滥用个人生物识别信息的刑法规制研究。他认为“深度伪造”的法益侵害对象就是个人生物识别信息,尽管各国对此种信息保护的规定各不相同,如欧盟采用统一立法而美国则用专门立法进行保护,但都肯定个人生物识别信息权利的立法价值,都对公共管理使用生物识别信息进行差异化规制。我国刑法对滥用个人生物识别信息的规制呈现首尾治理的疏忽与中端治理的真空等问题,致使现有罪名难以实现制裁的周延性与体系性。“深度伪造”的规范本质是违背信任,有必要在刑法中引入背信犯罪,进而构建对公民个人信息的“双向二维”保护体系,实现个人生物识别信息的强化保护,最终一体规制网络与现实空间的所有背信行为。
徐翕明 广西民族大学法学院副教授
来源于:中国法学会网络与信息法学研究会