生成式人工智能与“不可解释性”危害结果的客观归属
曾聪
生成式人工智能的有限自主性源于以大数据为基础的算法决策的不可解释性,意味着其可以独立造成法益侵害。既有理论深陷人工智能体有无责任能力的主观归责问题,却忽视了生成式人工智能犯罪首先面临的是危害结果之客观归属问题。生成式人工智能不是强人工智能,其所造成的法益侵害无法归属于智能体本身,应当根据《生成式人工智能服务暂行管理办法》等技术规范,在生产者与使用者之间分配生成式人工智能所致法益侵害的风险,以填补刑法处罚漏洞。风险分配的依据是技术规范在科技发展与人类安全之间的价值判断立场,其规定了生产者与使用者对不可解释性算法决策可能存在“最差的情形”的注意义务。风险分配的方式是在准备、运算与生成这三个阶段,结合当前人工智能犯罪的不同类型,在生产者与使用者之间进行不对称的风险分配。为避免过度限制科技发展,应根据下位规则限制危害结果的客观归属,一是根据溯责禁止原则限制对生产者的结果归属,二是根据有限的自我答责原则限制对使用者的结果归属。
算法从属性下平台从业者的身份识别
田思路 郑辰煜
数字时代的从属劳动具有算法从属性的特征,其源于工业时代雇佣劳动的技术从属性,表现为算法对劳动过程的全景式控制与劳动者对算法的身心从属,其实质是算法管理下劳动者的自主性受限。而互联网平台用工正是一种以算法为底层技术架构的劳务撮合模式,表现为劳动机会的算法调度、劳动过程的算法指导、劳动结果的算法评估等。为破解平台用工关系难题,有必要在从属性体系中引入算法从属性的维度,以增加劳动者身份认定的识别度和识别可能性,进而在现行政策基础上明确平台不同用工模式下从业者的身份属性,并赋予其相应的权益保障。
从政府数据到公共数据:概念演进与制度选择
陈全真
在数据要素政策驱动下,我国数据开放制度引入“公共数据”概念,替代了“政府数据”这一概念。受“数据功利主义”观念影响,地方立法中公共数据的规范内涵随数源主体的增多而扩张,理论研究中更是出现了以“数据内容具有公共价值或关涉公共利益”作为公共数据的认定标准。然而,公共性或公共利益的概念难以确定,具有公共价值的数据也不一定都属于公共数据。公共数据中“公共”这一概念只能指涉数源主体具有公共性,而非指“数据内容具有公共价值或关涉公共利益”,公共数据认定宜采用严格的主体标准,以防止私主体数据被不合理的纳入公共数据范畴。公共数据与私主体数据划分的意义在于二者对应着不同的数据制度,且在制度价值、制度目的、制度构造以及制度调整对象上均存在差异,制度逻辑的分殊可以防止公共数据的共享开放义务蔓延至私人数据领域。
- 欢迎关注本微信公众号 -
《华中科技大学学报(社会科学版)》
唯一官方微信平台
联系电话:027-87543616
投稿网站:http://hzls.cbpt.cnki.net/
版权所有
欢迎个人转发,媒体转载请联系授权
(文中插图未经注明均来自网络)
长按识别二维码关注我们
点“阅读原文”了解更多