集锦|大数据与人工智能文章梳理之社会科学篇

文摘   2024-10-23 09:01   湖北  


大数据与人工智能

社会科学篇


生成式人工智能与“不可解释性”危害结果的客观归属


曾聪

点击此处查看全文

生成式人工智能的有限自主性源于以大数据为基础的算法决策的不可解释性,意味着其可以独立造成法益侵害。既有理论深陷人工智能体有无责任能力的主观归责问题,却忽视了生成式人工智能犯罪首先面临的是危害结果之客观归属问题。生成式人工智能不是强人工智能,其所造成的法益侵害无法归属于智能体本身,应当根据《生成式人工智能服务暂行管理办法》等技术规范,在生产者与使用者之间分配生成式人工智能所致法益侵害的风险,以填补刑法处罚漏洞。风险分配的依据是技术规范在科技发展与人类安全之间的价值判断立场,其规定了生产者与使用者对不可解释性算法决策可能存在“最差的情形”的注意义务。风险分配的方式是在准备、运算与生成这三个阶段,结合当前人工智能犯罪的不同类型,在生产者与使用者之间进行不对称的风险分配。为避免过度限制科技发展,应根据下位规则限制危害结果的客观归属,一是根据溯责禁止原则限制对生产者的结果归属,二是根据有限的自我答责原则限制对使用者的结果归属。


算法从属性下平台从业者的身份识别


田思路  郑辰煜

点击此处查看全文

数字时代的从属劳动具有算法从属性的特征,其源于工业时代雇佣劳动的技术从属性,表现为算法对劳动过程的全景式控制与劳动者对算法的身心从属,其实质是算法管理下劳动者的自主性受限。而互联网平台用工正是一种以算法为底层技术架构的劳务撮合模式,表现为劳动机会的算法调度、劳动过程的算法指导、劳动结果的算法评估等。为破解平台用工关系难题,有必要在从属性体系中引入算法从属性的维度,以增加劳动者身份认定的识别度和识别可能性,进而在现行政策基础上明确平台不同用工模式下从业者的身份属性,并赋予其相应的权益保障。


从政府数据到公共数据:概念演进与制度选择


陈全真

点击此处查看全文

在数据要素政策驱动下,我国数据开放制度引入“公共数据”概念,替代了“政府数据”这一概念。受“数据功利主义”观念影响,地方立法中公共数据的规范内涵随数源主体的增多而扩张,理论研究中更是出现了以“数据内容具有公共价值或关涉公共利益”作为公共数据的认定标准。然而,公共性或公共利益的概念难以确定,具有公共价值的数据也不一定都属于公共数据。公共数据中“公共”这一概念只能指涉数源主体具有公共性,而非指“数据内容具有公共价值或关涉公共利益”,公共数据认定宜采用严格的主体标准,以防止私主体数据被不合理的纳入公共数据范畴。公共数据与私主体数据划分的意义在于二者对应着不同的数据制度,且在制度价值、制度目的、制度构造以及制度调整对象上均存在差异,制度逻辑的分殊可以防止公共数据的共享开放义务蔓延至私人数据领域。


效益到权利:数字经济构建的非均衡性及法治矫正


孟融

点击此处查看全文

当前我国数字经济构建蕴含着数据要素驱动的市场化、数字GDP提升的指标化与数字设施普及的效率化逻辑,“效益”成为数字经济构建的价值基础。在效益价值支配下,数字经济构建呈现出明显的“非均衡性”困境,即数据要素过度集中与垄断,数字资本导致个人主体性消解,横向与纵向数字鸿沟对个人融入数字生活形成了侵扰。鉴于此,应立足共享型法治的基本理念,实现对数字经济构建的矫正。数字经济构建应秉持“权利”立场,通过数字防御权、数字参与权、数字平等权的树立以实现对效益价值的扭转。具体而言,应加强法律监管与保障以防止数据过度集中,提升制度伦理以增进数字福祉,构建普惠化机制以破解数字鸿沟,从而从整体上促进数字经济构建向人性价值的回归。


企业数据合规的困境纾解与体系构建


鄢浩宇

点击此处查看全文

在国际数据治理规则制定话语权争夺日益白热化的当下,我国数据治理制度体系面临自律治理不足的问题,企业数据合规制度作为自治—问责的治理模式,能够将企业作为数据治理的参与者和义务人,矫正数据治理中风险的错配和责任的转嫁,促进数字社会的多元治理,完善我国的数据治理制度体系。当下企业数据合规制度建设面临三重困境:制度激励的不足使得企业缺乏建设数据合规制度的内生动力,规则标准的散乱使得企业数据合规的实践缺乏统一明确的依据,组织架构的模糊使得相关义务和责任的承担缺乏实体。应当在分析借鉴域外数据合规相关制度经验的基础上,对我国企业数据合规制度构建作出制度性安排,建立体系化的合规激励机制,提炼系统性的合规规范体系,组建独立性和穿透性的合规组织实体,形成具有中国特色和制度优势的企业数据合规制度。


网络暴力刑法规制的信息传播犯罪模式


童云峰

点击此处查看全文

网络暴力作为一种“社交网络恐怖主义”,已严重污染网络空间的生态环境。刑法领域对网络暴力的规制,存在着网络话语替代规范话语、无形暴力等价有形暴力的趋势,这一趋势有自相矛盾和泛化因果关系的问题。从认识论、传播学和实践论等视角,甄别网络暴力的(人身)攻击性不法信息肆意传播的本质,可为网络话语寻找规范依据。基于此,可以验证专设“网络暴力罪”的治理模式并不妥当。在既有刑法体系下,应当塑造网络暴力的信息传播犯罪规制模式,分别从网络暴力的信息制作者、信息传播者和传播辅助者等视角,贯彻网络暴力信息传播犯罪规制模式的实施方案。对于网络暴力行为的入罪标准,不宜坚守纯粹形式化的传播次数标准,应当坚守形式与实质并存的法益侵害程度标准,并以实质的“可控性”标准作为划定法益侵害程度的标尺。


智媒传播场域下“技术中立”的法律难题解构


顾晨昊

点击此处查看全文

智媒传播场域下,“技术中立”的论调成为智能算法自动化决策与法律责任界定的难题。然而,“技术中立”的概念使用实际上杂糅了技术哲学中的“技术无涉价值论”、立法技术上的“技术中立理念”、版权法领域的“技术中立原则”三方内涵,导致概念混淆。“技术中立”难题的解构关键在于概念检视:一是在价值评析层面揭示技术内涵的社会维度,证成算法决策结果归责的正当性;二是明晰“技术中立理念”的内涵,排除制度设计层面的概念干扰;三是阐明“技术中立原则”的规则演变及法律适用条件,指正其在责任界定中有限的抗辩效果。基于历史视野,“技术中立”的技术治理观已无法适配当下的算法治理场景,应以“算法向善”为导向,在规范层面转变技术治理模式。


应用商店剥削性滥用:完整画像、生成机理与反垄断规制工具创新


陈百豪  喻玲

点击此处查看全

数字平台营造封闭型数字生态强化了网络效应、锁定效应等平台经济特性,破坏了交易的公平性,给交易相对人带来了显著不利益,影响社会财富的初次分配,需要加强反垄断规制。生态系统封闭效应显著的应用商店为剥削性滥用的生成与反垄断规制提供了一个绝佳观察模版。应用商店剥削性滥用的完整画像与其双边市场结构具有内在一致性,不仅包括实践中热议的开发者侧佣金过高问题,还包括消费者侧过度收集、处理数据问题。单一的事后执法对“数据型剥削”和“结构性市场失灵”的因应不足是传统反垄断规制的痼疾。反垄断规制工具的创新,既要完整涵盖双边市场的异质剥削,又要跟上技术创新与商业模式的发展变化——事前加强竞争倡导,强化应用商店自我管理和自我规范;事中重视行业调查,深入了解应用商店服务市场的竞争状况、市场结构以及垄断力量的存在程度;事后开展对数据型剥削性滥用的定量分析,打造“事前+事中+事后”全链条反垄断规制体系。


算法权力在治理体系中的产生与规制


许晓东  邝岩

点击此处查看全文

在数字化转型的背景下,算法成为社会运行的重要规则并影响了整个治理体系的运转逻辑。算法在治理体系中的嵌入实质上是一种与制度相互型构的过程,算法强化行政组织的决策权和执行权、推动平台权力产生,并在一定程度上实现对行政人员职能替代的同时,既有的治理结构和制度安排也塑造了算法官僚这种新的组织形态,并形成了算法权力这种新的权力形态。这种权力算法化的运转逻辑在提升治理效能的同时也在权力配置、运转等方面引入了新的治理风险,可以基于权力理论从制度制约、伦理制约、权力制约和权利制约等方面进行针对性的规制。


数字金融与家庭发展韧性

——基于CHFS数据的实证研究


李晗  陆迁

点击此处查看全文

本文运用2013—2019年四轮中国家庭金融调查数据与中国数字普惠金融指数,研究数字金融对家庭发展韧性的影响路径及作用机制。研究发现,数字金融显著提高了家庭发展韧性,并增强了脱贫群众内生发展动力。机制分析表明,数字金融发展主要通过风险分担、资产积累以及促进地区经济增长等途径提高家庭发展韧性。路径分析表明,数字金融通过保护家庭免受冲击并刺激家庭生产力发展来提高家庭发展韧性。进一步对数字金融的溢出效应进行验证,尚未发现数字金融带来的“数字鸿沟”现象。最后,在当前中国情境下,移动支付塑造家庭发展韧性的作用要远远大于其他数字金融工具。基于以上分析,本文对如何更好地创新数字金融工具,以及如何巩固脱贫成果提出政策建议。


大数据环境下人工智能的“干中学”效应研究


马骁  王军  张毅

点击此处查看全文

本文对人工智能参与生产活动后其生产效率逐步提高的现象进行了学理化表达。研究表明,人工智能的机器学习能力使得其能够调用庞大数据集供自身进行训练,从而变得更加“智慧”,体现到生产活动中,人工智能具备类似于劳动力进行“干中学”的能力,本文将其称为人工智能的“干中学”效应。基于新古典增长理论的研究范式和分析框架,人工智能的“干中学”效应使得更高水平的平衡增长路径存在且稳定。同时,本文从经济奇点和要素配置等问题入手,讨论了人工智能的经济影响及其作用机制。建立在理论分析的基础上,本文选用来自中国30个省份和179个地级市的平衡面板数据进行实证检验,结果表明,人工智能的“干中学”效应对我国宏观经济总产出与全要素生产率水平产生了重要作用,但在产业、行业层面表现出一定的异质性。最后,本文从全面发挥人工智能的“干中学”效应以及推动宏观经济高质量发展的角度给出了政策建议。


共有、共治与共享:大模型技术的发展之路


高奇琦

点击此处查看全文

大模型技术正在重塑人类社会,并可能产生出新的弱势群体。大模型技术的发展需要人民民主的价值理念,因为通过人民民主可以让那些新弱势群体在大模型技术发展过程中直接表达其诉求,通过温和谈判来缓和剧烈的利益冲突,同时用人民民主制度来保障大模型技术产生的效益被社会大众所共享。人民民主的内涵主要表现为以生产资料公有制为主体、人民共同参与政治和共享社会发展成果等内容,体现在大模型技术领域就是大模型技术的共有、共治和共享。大模型技术的共有意味着其未来作为智能技术时代的基础设施而存在。为了防止大模型技术被资本吞噬,国家需要以某种方式介入,通过构建统一公共算力平台,并使得创新型企业获得更多的发展机会。大模型技术的共治意味着,要形成以积极公民为中心的行动者网络、去商品化的共治逻辑、国家的适度干预,并从新弱势群体中发现新的奇异吸引子。大模型技术的共享意味着,需要更多重视再分配、差别原则和再承认等核心内容。再承认的关键是,要使得那些新弱势群体在能力建设的基础之上获得其第二次降生的机会。


人工智能治理中“基于风险的方法”:理论、实践与反思


张涛

点击此处查看全文

以生成式人工智能为代表的新一轮人工智能技术带来了一系列规制挑战,而传统的“基于权利的方法”难以有效因应。“基于风险的方法”主张根据人工智能所带来的不同类型和等级的风险,采取相应的治理措施和方式,平衡技术创新与有效治理的关系。这是一种符合人工智能风险特性和发展规律的治理方法,以风险社会、适应性治理和回应性规制等理论为指引,以风险识别与分析、风险评估与分类、风险控制与监督、风险沟通与参与作为制度构成。在基于风险的人工智能治理实践中,欧盟、美国和中国分别采取“自上而下模式”“自下而上模式”“混合模式”,并取得了初步成效。然而,人工智能治理中“基于风险的方法”也面临批判和质疑,应当构建多元共治的人工智能风险治理体系,并建立动态适应的人工智能风险治理机制,同时搭建开放协作的人工智能风险治理平台。


数字化转型与企业交易成本


李卫兵  张星

点击此处查看全文

采用基于机器学习的文本分析方法和A股上市公司年报中关于数字化转型的关键词词频统计来构建数字化转型指标,本文分析了数字化转型对企业交易成本的影响。研究发现,数字化转型有助于降低企业交易成本。一系列稳健性检验表明该结论是可信的。同时,本文将数字化转型指标分解为区块链、大数据、人工智能、云计算技术以及数字化应用等五个子指标,检验结果也证明了数字化转型对企业交易成本抑制效应的存在。进一步的分析表明,数字化转型对信息搜寻成本、契约签订成本和契约履行成本等不同类型的交易成本均有抑制作用,而且高新技术企业和非数字经济行业的相关企业能更好地利用数字化转型降低其交易成本。


工业机器人应用对创业的影响

——基于中国微观调查数据的分析


韩民春  毛春英  袁瀚坤

点击此处查看全文

本文将视角聚焦于劳动者的就业选择,基于中国综合社会调查数据实证研究工业机器人应用对创业的影响。研究发现:(1)工业机器人应用对个体创业概率的影响呈倒U形关系。当工业机器人应用水平较低时,替代效应占据主导地位,就业机会的减少会降低创业的机会成本,从而提高个体的创业概率。但当工业机器人应用水平达到一定程度后,就业积极效应开始占据主导地位,就业机会的增加会减少个体的创业概率。(2)分创业类型并进行异质性分析发现,工业机器人应用主要促进了中低技能劳动者的生存型创业,并且这种促进效应呈现先上升后下降的趋势;对于机会型创业,工业机器人应用主要促进了中等技能劳动者的机会型创业,这种促进效应也呈现先上升后下降趋势。(3)机制分析表明,工业机器人应用通过影响个体的受雇就业机会,进而影响其创业意愿,最终对创业决策产生影响。


算法透明度的理论反思与制度建构


张恩典

点击此处查看全文

算法透明度在整个算法治理实践中蕴藏着丰富的固有价值和工具性价值。当前基于信息的算法透明度模式在理论渊源上源自传统基于信息的透明度理论,该理论虽发挥了一定作用,但因忽视算法决策的复杂性和动态性,难以满足利益相关者的多元化透明需求,忽视了普通公众的算法理解力而面临着严重的实践困境。基于此,在理论层面上,宜对算法透明度进行合理的理论更新,倡导算法透明度的“关系”转向,由传统静态的基于信息的算法透明度模式迈向动态的基于关系的算法透明度模式。在具体制度建构上,宜以关系透明度理论为指导,遵循“透明度设计”理念,基于算法透明度的个体和系统双重维度优化、完善算法透明度的基础性制度,并基于双阶透明度探索建构具有实践理性的算法透明具体机制,以增强算法透明度制度的回应性和有效性,切实发挥算法透明度在算法问责和算法治理中的功能。


迈向数字包容:农村老年群体融入数字社会的衍生风险及治理


匡亚林  蒋子恒

点击此处查看全文

以数字技术赋能农村新一轮高质量发展正是实现乡村振兴战略的长足抓手,而原生于城市的数字技术面临乡村场域的系统性制约,其在物理硬件、智力软件、外部需求和内在机理四个维度内的脱嵌关系构成了主客体间的强烈张力。处于嵌入与脱嵌交汇之处的农村老年群体,从深陷数字鸿沟跃然迈入数字社会中,面临着场域数字化的系统性风险与自解系统缺乏的应对隐患,明确数字包容的政策愿景,将农村老年群体融入数字社会的衍生风险纳入“能力-属性”的类型学框架中予以分析,因地、因事、因时制宜,构建以农村党组织为领导主体、以类型化政策选择所组成的风险化解机制,筑起农村老年群体数字风险的防范网。


共享共治理念下平台经济的税收征管挑战与治理优化


欧阳天健

点击此处查看全文

平台经济的诞生对传统税收治理体系造成了较大的冲击,由此产生的滥用核定征收等问题导致税基的侵蚀与平台的无序扩张,其背后的根本原因是资本的逐利性与平台公共性之间的矛盾,加之征纳双方信息不对称和我国征管体制的滞后性更加放大了此种矛盾。在新经济业态发展的过程中,冲突与矛盾是不可避免的,在顶层制度优化时应凝聚共享共治的共识,充分利用好平台企业“规则制定者”“信息收集者”“内部管理者”的角色定位,积极引导平台制定软法规范,开展税收合规,督促平台经济的参与者积极履行纳税义务。同时,通过《税收征收管理法》的修订,完善平台企业的协力义务,促使其深度参与平台税收治理过程,以真正落实平台税收领域的治理体系和治理能力的现代化。


工具化与去工具化:数字平台公共性的发展异化及矫治


冉隆宇

点击此处查看全文

技术赋权的再中心化和治理赤字的补足需求共同催生并发展了数字平台的公共性特征。准公共权力、公共利益、公共空间构成数字平台公共性的核心要素。然而,数字平台私利性对其公共性的“驱使”引发滥用公共性的“显性”工具化和诱导个体行为的“隐性”工具化,进而导致经济层面竞争失序与社会层面数字不平等的异化隐忧,实质则是数字平台私权力内在张力之结果。针对该问题,一方面,应当在明确数字平台私利性和公共性共生共进基本关系的基础上,强调衡平二者的现实张力;另一方面,需要健全数字平台的内部治理与外部约束机制,引入准公共承运人的约束性义务。


数字内容平台滥用市场力量的反垄断规制分析


詹馥静

点击此处查看全文

数字内容平台的市场力量不仅来自平台生态系统中由规模经济、双边市场、网络效应和用户黏性等经济特性构建的天然市场壁垒,还源于内容产品的差异化属性以及海量版权集聚所形成的市场进入障碍。相比于市场份额等结构化要素,数字内容市场的竞争特点、进入壁垒和数字内容平台掌握版权资源的基本情况,以及平台对上下游版权市场的控制能力等非结构化要素,是评估其市场力量更为关键的考量要素。利用版权内容产业链上的特殊地位和渠道优势,数字内容平台可能对上游版权方或创作者施加不公平待遇、对中游竞争对手进行转授权限制、对下游版权使用者或终端消费者苛以各种使用限制。因此,应当引入数字内容生态监管的整体规制理念,结合版权要素应用场景以拓展现有滥用行为类型,并根据产品差异化理论细化竞争损害的分析维度,探索针对数字内容平台滥用市场力量的有效规制路径。


人力资源管理中个人信息保护的困境与出路


冉克平  刘冰洋

点击此处查看全文

在职场这一特殊场域,信息处理的权力势差真正“兑现”为权力关系。用人单位在实施与人力资源管理相关的信息处理行为时,其背后的管理权容易形成对个人信息权益的“碾压”。现有的解决方案均难以发挥理想效果,应当运用解释论方法探索有助于解决困境的法律适用基准。集体合意作为个人同意的“替代者”,理应充分还原同意的自治性,要求劳动规章和集体合同的制定(签订)过程遵循法定程序、合意代表具有相关“自利决定能力”、用人单位有效地提供信息。“实施人力资源管理所必需”在适用时应充分兼顾用人单位管理利益,于具体情境中结合比例原则综合考虑“关联性”“均衡的信息处理方式”“最小的信息处理范围”三个条件。


还数于民:实现个人数据自决的“新”数据中介


丁凤玲  彭建

点击此处查看全文

《中华人民共和国个人信息保护法》确立的以“知情同意”原则为核心的个人数据权利因种种原因难以真正实现。实践中,一种以技术或集体组织之力量协助个人实现其数据权利、克服“赋权”失灵的数据中介正在世界各地兴起。其中,个人数据空间、数据银行等辅助性数据中介借助技术力量实现个人数据可携带,能够打破数据垄断;以数据信托与数据合作社为代表的管理性数据中介依靠集体组织实现个人数据权利,有助于推动数据治理的形成。上述数据中介有望成为我国个人数据治理的有效补充。就我国引进数据中介而言,辅助性数据中介可以界定为平台经营者;数据信托可借鉴《中华人民共和国信托法》来实现;数据合作社可依据《中华人民共和国民法典》创设为特殊的社会团体法人;数据工会暂时没有存在的制度土壤。


云平台环境下个人数据传播生态系统的复杂网络结构与功能分析


彭静  李卫东

点击此处查看全文

云平台环境下,个人数据传播正在形成一个庞大而复杂的生态系统,个人数据治理面临重大挑战,然而当前个人数据泄露研究集中于单一层面,如法律、技术、企业管理等,对个人数据传播与泄露的结构性风险的探索存在不足。本文基于云生态视角,采用复杂网络分析法分析个人数据传播的结构与功能,探索个人数据泄露的结构性风险。本文以我国网民使用的350个应用作为研究样本,建构个人数据传播网络的拓扑结构模型,并开展其结构和功能分析。研究发现,当前中国个人数据传播生态结构较合理,基本符合生态平衡要求,生态系统能实现良性发展;但同时个人数据传播生态系统的结构性风险显著,需建立灵敏的风险预警等外部干预机制;个人数据安全还需要采用生态化治理思路,政府要加强对生态系统结构的引导与干预。


数字时代刑事正当程序的重构:一种技术性程序正义理论


刘金松

点击此处查看全文

人工智能等数字技术在中国刑事司法领域的广泛适用正在冲击并重塑司法的实践面孔。面对数字化、智能化的司法实践,传统的对抗性程序正义理论以及协商性程序正义理论在适用场域、规制主体、程序运作和结果评价等方面已经不具有完全的解释力。技术性程序正义作为对数字技术融入刑事司法程序的过程和结果进行价值评价的基本标准,包括“排出偏见”“充分参与”“程序对等”“程序合理”“问责有效”五项基本要素,旨在对司法数据和算法的透明性以及系统开发过程中的共同体参与、机器学习及智能系统的合理解释与规制提供框架。技术性程序正义立基于人的主体性和尊严理论、司法公信力理论和分布式道德责任之上。技术性程序正义全面挑战了传统程序正义理论,但二者有各自适用的空间和边界。为了接近技术性程序正义,司法机关需要对数字技术融入刑事司法的开发机制、备案机制和检验机制进行配套改革。


数字治理的刑法介入模式

——以电信网络诈骗的治理变革为例


朱笑延

点击此处查看全文

中国网络犯罪治理大转型的“波兰尼时刻”已经到来。电信网络诈骗治理实践由直接的国家管控到间接的平台治理、由控制数字技术到净化数字生态、由单一的刑罚制裁到多元的部门法合作,驱动着网络犯罪治理从事后治理迈入数字治理阶段。刑法介入网络犯罪治理的核心问题也由规制范围的选择转变为与数字治理的不匹配,这一问题难以通过积极、消极抑或折中的法律内部视角解决,而是要在法律与治理的互动关系中探索更具数字化、更具想象力的答案:刑法应以间接治理的介入思维取代对网络平台犯罪预防义务的直接审查,重点评价网络平台作为市场主体对公共义务的实质性履行;突破一律从严或一概从宽的泛化惩处思路,根据电信网络诈骗及其关联犯罪的数字化特征,确立更富针对性的评价尺度;超越刑法规制抑或行政规制的部门法分立视角,以部门法合作规制的新思维探索刑事法律责任与行政法律责任的协同作业模式。


论敏感个人信息的侵权保护


王鹏鹏

点击此处查看全文

敏感个人信息与私密信息之间存在区分,“敏感性”需要客观的法律标准予以认定,“私密性”是主观认识。场景理论的引入将缓和敏感个人信息界定的僵化。敏感个人信息侵权的主要表现形式为对隐私权的侵害、诱发下游犯罪以及引起不必要的歧视。这些损失发生需要通过精神损害赔偿和财产性损害赔进行弥补。其中,损失可以通过缓和“严重的精神损害”、延伸“差额说”、信息主体获得利益等规则立体确定。《个人信息保护法》第二章规定的“敏感个人信息的处理规则”是事前防御性规则,处理敏感信息时违反该规定将被认为有过错。《个人信息保护法》中规定的过错推定原则与《民法典》中的过错原则并不存在实质冲突,而是协调统一的。


数字金融与中小企业资本结构调整行为


朱超  范志国

点击此处查看全文

数字金融的快速发展给企业去杠杆带来了新的可能,本文利用中小板和创业板上市公司2012—2019年样本数据,研究了数字金融对中小企业资本结构调整速度和调整方式的影响。研究发现,无论资本结构是向上调整还是向下调整,数字金融均提高了中小企业资本结构调整速度。数字金融促使中小企业更愿意通过债务融资方式向上调整资本结构,也提高了中小企业用债务融资和权益融资方式向下调整资本结构的概率。究其原因,是数字金融可以促进银行业竞争、缓解融资约束和提高信息透明度,进而提高中小企业资本结构调整速度。基于内外部环境的异质性检验结果表明,数字金融对规模较小、非国有企业、位于金融监管较强地区的中小企业资本结构调整的促进作用更明显,对不同金融发展水平地区的中小企业资本结构调整速度没有显著差异。本文从数字金融的视角,为中小企业资本结构管理行为提供了经验证据。


社交网络意见领袖“标准化”效应与路径

——基于新浪微博的用户样本分析


徐翔

点击此处查看全文

当前在社会化媒体与自媒体“人人时代”强势崛起、网络海量信息过载、用户生产内容多样化、网络“巴尔干化”盛行背景下,对社交网络内容生产中的意见领袖是否趋于相似化乃至“标准化”的问题,学界缺乏足够理论关注和系统实证。结合新浪微博样本,本文使用潜在语义分析和用户相似度计算、统计检验、路径分析等方法,探讨社交网络意见领袖“标准化”现象与路径。新浪微博用户随着意见领袖程度提高、粉丝规模增大,表现出去独特性的“全局标准化”,以及与之关联的“趋顶标准化”和“邻域标准化”演变。这几种“标准化”不是相互独立或冲突的,而是有着内在作用结构、同步性过程。高影响力的意见领袖用户并非彼此分化,而是加强着社交网络共同体的内容封闭性,显现出在“个体信息茧房”之外存在尚深思不足的“社会信息茧房”风险,在社交网络多样化、高可达度的公共领域中潜藏着走向趋同的异化逻辑。


重思数字基础设施及其与人、自然之关系

——以图底关系为方法论的本土化考察


朱政德  胡泳

点击此处查看全文

作为“新基建”的核心内容,数字基础设施在我国备受瞩目,但相关研究过重技术本身之“新”,往往落入功能主义窠臼并流于过誉,忽视了数字基础设施及其与人、自然之间蕴藏的冲突。如果引入麦克卢汉的图底关系方法论予以反思,就不难发现我国的数字基础设施目前呈现为一组由图底关系过程组成的装配:它通过图底互逆过程使人的角色在“伺服系统”与“用户”间波动;通过图底竞争过程与自然展开复杂博弈,暗中促逼自然交出不可再生的化石能源,令数字基础设施与自然的关系极有可能偏离变和博弈,逼近零和博弈。上述装配存在但不尽合理,学界、业界有必要回归中国语境,将数字基础设施嵌入其与人、自然结成的图底关系网中加以理解并重思利弊。


算法垄断风险的事前预防:理论证成、实践反思与路径优化


闫静

点击此处查看全文

数字经济时代,面对具有复杂性、隐蔽性和技术性的算法垄断风险,过于倚重事后规制的传统反垄断实施方式呈现出威慑不足、成本较高且救济乏力的功能局限。基于风险控制的现实需求、预防垄断的立法原意、域外经验实践的成果,以及填补事后规制不足的考量,对算法垄断风险施以事前预防具有合理意义。审视当前的反垄断实践,可以发现,算法垄断风险的事前预防流露出了干预节点前置化、调整范围扩大化、实施手段多样化以及作用对象特殊化的倾向,虽有探索创新之价值,但也易于陷入激进预防、过度干预的误区。为框定事前预防的合理边界,应确定以“预防中性观”为内涵的折中改良理念,借助比例原则构画审慎实施思路,同时澄清事前预防的功能补充地位,实现算法垄断风险的理性控制。


新媒体时代新闻传媒与受众的伦理关系探析


任志峰

点击此处查看全文

人类已经进入互联网自媒体和社交媒体时代,新闻传媒与受众的关系产生了颠覆性变化,从传统的单向传播转变为复杂的交互传播,在这一媒介生态变化背景下重新探讨新闻传媒与受众的伦理关系,对于新闻理论研究和传播实践都是一种迫切的需要。结合新出现的一些媒介传播现象,在回顾传播学理论的变迁中加深对当今时代媒介生态的理解,印证这些理论的解释力、预见性以及对未来传播实践的指导意义。在研究方法上,遵循我国“新文科”发展跨学科交叉研究的理念,综合运用哲学、伦理学、社会学、传播学、行为心理学等学科理论,重点应用现当代主体间性哲学理论,解析新媒体时代新闻传媒与受众伦理的一些问题。新媒体时代的受众研究应该着眼于技术视野,打破新闻传媒与受众“主客二分”的传统哲学思维,代之以“共生”“互构”的伦理关系,这对于在一个人人都是传播者,也是收受者的新技术媒介时代,将提供一个全新的视角和理念。


智能时代政治机器人的初步应用、挑战及风险治理


张梦  虞崇胜

点击此处查看全文

政治机器人是由人类设计的、用于大规模政治服务的一种人格化的智能机器系统,它通过参加政治议题的讨论、干预政治事件的走向、推动政治文化的发展以实现一定的政治目标。政治机器人的潜在优势体现在实现政府治理的精准化、政治参与的智能化、政治运行的高效化及政治文化的规则化等方面,其技术赋能的理性追求应与构建健康政治生态导向保持一致。在具体政治实践中,政治机器人往往受资本增殖逻辑与技术理性逻辑的双重挟制而成为削弱民主的异化力量,为垄断、滥用、霸占政治权力预留作用空间。政治机器人可引发不同类型的风险,一方面通过激发其应用潜力、协同多元主体、建立动态监测机制、运用学科交叉思维解决政治机器人内生安全问题,另一方面从理念层面、法律层面和制度层面构建风险治理路径,规避机器人成为政治弊病的“催化剂”,从而使科技的智慧之光和制度的理性之光在政治机器人身上得到体现。


刑事证明中人工智能的应用:精准定位、理念反思与路径优化


张迪

点击此处查看全文

结合人工智能的实践应用和理论需求,发现刑事证明中人工智能“证明辅助”功能应被精细地定位在知识补充、知识指引及知识预警等功能之上,而如何管理人工智能是其能效释放的关键所在。刑事证明中人工智能的应用具有行政化倾向,主要体现在人工智能产品生成的“权力化”、知识指引的“刚性化”、知识补充和知识预警的“监督化”等方面,由此引发刑事审判的技术性错误和灵活性不足。对于人工智能的科学管理是解决现有困局的关键,政法决策层应将科学管理理论作为管理人工智能的理念源泉,借助管理改革发挥其功效。具体来说,在内部管理上,优化人工智能的智能技术、数据库、生成路径、设计法理等,以提高刑事证明中人工智能的可接受性,避免人工智能结论出现技术性错误;在外部管理上,优化人工智能对证明过程和证明结果的管理,设立正向教育和逆向反馈通道,以提升司法人员的独立性与积极性,平衡刑事审判的统一性和灵活性。


论信息时代网络著作权信息披露制度的重构

——兼论《信息网络传播权保护条例》第13条和第25条的修订


袁锋

点击此处查看全文

信息化时代,在个人信息价值不断提升的同时,网络著作权信息披露制度的重要性日益凸显,但我国立法中有关著作权信息披露的规定却仍显滞后,缺乏明确和完备的披露程序和条件的规定。其他一些国家对网络著作权信息披露制度进行了较为科学和合理的设计,值得我国借鉴。我国应通过对《信息网络传播权保护条例》第13条和第25条的修订来重构著作权信息披露制度:应规定著作权人有权请求网络服务提供者披露侵权人信息,对行政机关行使信息披露权进行限制,同时明确规定可以通过人民法院行使信息披露请求权,并且应明确信息披露请求权的具体行使要件。


大数据时代群体维度的数据利益保护路径研究

——以“用户标签”为中心


牛彬彬

点击此处查看全文

数据处理者通过识别并作用于群体的方式,绕开个体的“识别”过程,通过作用于群体而间接影响个体,这日渐成为数据处理者批量处理数据的基本模式,“群体化个性预测时代”来临。群组的形成以共同标签作为基础,并以聚类算法作为内在驱动,由此在群组之内也形成极为特殊的利益形态。须以“用户标签”切入,对相关制度予以改进。在数据权利方面,首先需要增加针对数据主体的标签告知义务,增加限制处理权;其次,加强数据处理全过程的算法应用审查,注意标签生成与设置的数量和类型,并利用用户标签化管理制度来完善个人信息侵权制度。


大数据时代商业数据财产权理论的勃兴与批判


刘琳

点击此处查看全文

随着商业数据财产价值的凸显,学术界提出了商业数据赋权理论,并倾向于为商业数据构建所有权或类似的绝对权。然而,在理论层面,商业数据财产权存在正当性不足与权利要素欠缺的问题,其权利的宽大外衣下包裹的仍然是利益的瘦小身躯。在实效层面,盲目创设新型权利可能带来“数据孤岛”“数据鸿沟”等反公地悲剧,产生“揠苗助长”的负面后果并引发“权利乌龙”效应。在现有的制度中,《反不正当竞争法》提供的行为规制模式恰好与数据产业的发展需求相适配,具有优越性,但还需通过单独列举数据不正当竞争行为的方式来解决该模式中的一般条款滥用问题。此外,侵权法、合同法及版权法保护进路都在特定情形下具有自身优势,能为反不正当竞争法保护模式提供有益补充。现有的多元保护路径能够满足商业数据的保护需求。


算法权利的本质与出路

——基于算法权利与个人信息权的理论分疏与功能暗合


温昱

点击此处查看全文

算法权利要成为规制算法的武器,需要完成权利理论和权利功能两个层面与个人信息权的分离。不同于个人信息权是权利人自主性的直接体现,算法权利的核心意义在于规范算法权力的正当行使。算法权利与个人信息权的理论走向有巨大分疏,即其在权利结构、权利来源、权利演进三个维度上,均区别于个人信息权。但算法权利功能与个人信息权功能重合,个人信息权完全可以替代算法权利在自动化决策过程中规制算法运行、制约算法权力的功能发挥。算法权利存在的必要性被消解,但其揭示了算法权利与个人信息权存在深度融合空间,揭示了个人信息权在算法规制领域的应用可能。因此,算法权利可以作为扩展个人信息权场景的理论储备,应当将算法权利融入个人信息权体系之中。


通过竞争设计实现数字市场竞争保护

——以GDPR隐私设计条款为镜鉴


徐则林

点击此处查看全文

随着数字经济的繁荣发展,数字市场的垄断行为基于复杂性和隐秘性更难以受到法律制裁。结合新技术探寻保护我国平台市场竞争秩序的新方式已然迫在眉睫,欧盟《通用数据保护条例》(GDPR)中确立的隐私设计条款是非常合适的借鉴对象。与隐私设计相似的竞争设计也应予以考虑和引入,即在一项产品(服务)诞生之初,理念设计、公司决策程序等所有设计环节都考虑竞争保护,以算法"规制"算法。竞争设计机制能够提高竞争保护理念在各领域的渗入,促进竞争保护由事后向事前转换,实现社会共治治理模式转变。与此同时,竞争设计也可能存在可操作性欠缺、信任危机薄弱的潜在性风险。因此,要发挥竞争设计机制的优越性,需要从制度层面予以系统构建:首先,需要明确竞争设计在数字市场竞争保护体系中的基本定位,将竞争设计作为企业竞争合规的重要方式;其次,需要增强竞争设计的可操作性,借鉴隐私设计的步骤和策略,沿用或创设竞争设计的具体实施方式;最后,还需要创新确立竞争设计的法律保障体系,以法律规则为竞争设计提供制度支持,同时构建算法行政与竞争设计配合下的双重监管。


人工智能之光:神经网络算法在刑事审判领域的深度运用


张若枫

点击此处查看全文

充分运用人工智能,占领科技创新的高地,是国家信息化战略和司法改革的重要课题之一。然而,我国各地法院审判系统研发和应用的实际效果却与预期不符:辅助法官判案的只是人工智能的边缘功能,主要承担一些存储输出和按部就班的工作,缺乏举一反三的学习能力。选择神经网络算法构建刑事审判模型,是基于"让机器学习如何审判"的设想,模仿人类神经系统受到证据"刺激"后,通过网状的链接传导结构,使证据之间相互联系、相互影响、协同作用,分层次地步步证明案件事实,给法官判案提供参考。海量案例是机器学习的宝贵经验。神经网络的初始结构和参数都是随机的,通过将案例中的各证据、各要素量化——带入演算——输出结果,得出与实际判决之间的误差,再逆向修正参数,并带入下一个案例,这样循环往复地迭代、校验、修正,最终生成能够适用于所有案件的模型。机器学习的过程离不开监督、干预和控制,为了顺应司法改革的趋势,应当向它提供更多体现庭审实质化的案例数据,在评估结果时设置"宁纵不枉"、无罪推定的偏好,使神经网络模型更加符合审判规律,导向司法公正。然而神经网络在要素标注、算法生成上无法摆脱故步自封和以偏概全的弱点,缺乏必要论证过程形成的说服力,因此它只能作为司法裁判的辅助工具,不可取而代之。 


从算法民粹到算法民主:数字时代下民主政治的平衡


高奇琦  张鹏

点击此处查看全文

民粹主义的兴起正给西方民主制度的未来带来越来越多的不确定性。在最近民粹主义的热潮中,新技术尤其是算法技术的发展再次向学界抛出了政治与技术之间的关系问题,算法技术与民粹主义的结合引发了算法民粹主义。算法民粹主义是代议制民主这个旧身子进入算法新时代后发生偏离的产物,并且已经对西方社会民主化进程中的政治结构以及参与者的行为造成了重大影响,因此,需要对其进行修正,让民主进程向算法民主的方向发展。算法民粹与算法民主是数字时代下民主进程的一体两面。当技术使用失衡的时候,就会出现算法民粹事件,而对技术的正确应用则有助于推动算法民主。在数字时代下,我们需要运用技术的手段达到从算法民粹到算法民主的目的。对此,区块链恰好具备这样的潜能。区块链构建的是一种多中心架构的政治形态。区块链技术的相关特性可以使其能够很好地应对算法民粹主义给西方社会带来的新挑战,但作为一种治理技术与治理工具,区块链也不能替代政治本身。因此,我们应该时刻以审慎的态度对待技术的发展,进而让技术的使用达到"善智"的目的。


算法嵌入政府治理的优势、挑战与法律规制


王文玉

点击此处查看全文

和传统的政府治理模式相比,政府运用算法展开治理能有效提升治理的中立性、高效性、精准性和预测性,但算法嵌入政府治理还面临着技术上的难题、伦理上的困境以及法治上的风险,因而我们有必要对政府运用算法展开治理的行为予以法律规制。在规制原则上,相关法律规制方案应当遵循浮动的比例原则、主体自觉和法律制度建构相结合原则、内部过程控制和外部结果控制相结合原则。在具体规制方案上,建立算法应用领域的清单制度、完善算法解释制度,压实与算法决策相关的沟通监管制度,保障算法决策符合基本伦理要求,建立合理的责任分配机制是提升算法决策可信赖性的重要方面。


当权利面对市场:算法价格歧视的法律规制研究


赵海乐

点击此处查看全文

针对消费者的算法价格歧视在我国处于"犯众怒但无制裁"的状态,这一方面源于消费者举证困难,另一方面源于我国法律尚无法提供完备的请求权基础。美欧均采用"赋权"的方式处理算法价格歧视:美国通过民事权利保护立法的延伸适用,有效避免了针对特定消费者群体的价格歧视;欧盟强调个人信息是公民的基本权利,通过对信息在算法当中的使用以及对自动化决策的限制实现了对算法价格歧视的控制。美欧路径虽有差异,但共性在于均秉持了"权利-市场"理念:原则上承认市场竞争自由与企业定价自由,仅在定价行为触犯某些权利或法益时才会加以规制。我国应当借鉴上述理念,坚持"市场主导、权利优先"的司法理念的同时,效仿欧盟,以个人信息保护和算法责任建构限制算法价格歧视。


智能时代版权“避风港”规则的危机与变革


李安

点击此处查看全文

在互联网发展初期,法律以"通知/移除"为核心程序、以"技术中立"和"技术不能"为理论支撑,为网络服务提供商设立了"避风港"版权责任规则。进入人工智能时代,侵权内容的算法通知、个性化算法推荐、版权算法过滤对"避风港"规则的运行程序和理论基础带来了系统性冲击,并推动责任规则从事后消极的"通知/移除"转向事前积极的版权过滤。这种变革在国际层面以"自治规则"和"国家法律"两种形式进行。面对网络内容管理算法化的时代浪潮和版权责任规则变革的国际动向,我国不能信奉"算法虚无主义",无视算法技术对"避风港"规则的系统性冲击;也不能迷信"算法万能主义",夸大算法技术在当前网络版权治理中的实际作用,而应着眼于算法技术可及性和准确性的发展,对"避风港"规则的时代变革作出理性回应。


数字化时代的数字医保:内涵、价值、挑战与治理思路


杨红燕

点击此处查看全文

当今世界已迈入数字时代,各国的医保、医疗服务体系正在广泛对接数字化,进入"数字医保新常态"。数字医保是依托于大数据、人工智能、物联网、区块链等数字技术开展的医保治理。数字化推动医保的治理手段和方式转型升级,提高了治理效率、保障水平和保障质量,促进了保障效果的公平性。不过,数字医保仍面临治理主体间利益协调与保障内容选择难题,治理方式和治理手段的局限等挑战,需要在提升数字医保技术水平、完善数字医保标准建设并注重隐私保护的基础上,建立跨区域医保管理协作机制,推动线上线下融合,调整支付方式,协调各方利益,循序渐进地增加保障内容。


数字经济下的养老保险:挑战与改革


郭瑜

点击此处查看全文

作为经济增长的重要引擎,数字经济蓬勃发展,深刻改变着人类生产生活方式,也影响着劳动力市场与劳动者权益。新就业形态的出现对于当前以户籍制度和劳动关系为基础的社会保障制度形成了巨大挑战,养老保险功能弱化是一个突出难题。本文基于定性访谈进行了案例研究,将现实中的养老保险参保划分为"传统保障型"与"灵活变革型",展现了数字经济大潮下养老保险制度持续保障与挑战变革并存的图景。参保的核心难点在于部分新业态的雇佣关系不明晰,就业人员缺乏谈判能力和体制保障,被挤出城镇职工基本养老保险体系。为了预防劳动者的老年贫困问题,增进民生福祉,政府应引导和规范数字经济下的雇佣关系和收入分配关系,探索养老保险供给侧结构性改革。


民众意愿在数字化时代的表达

——以社会自我批判为视域


陈新汉

点击此处查看全文

价值的"主体-利益"结构决定了作为价值形态世界创造者的人民主体与其利益不可分离。在社会自我批判中,维护自身利益的价值诉求就成为人民意愿表达的根本动因。民众意愿的表达有不同途径和类型。社会舆论、社会谣言、民谣及由此形成的社会思潮等作为民众意愿表达的主要类型具有无机性、自发性和巨大能量。自媒体使民众意愿的表达在信息源和信息渠两方面发生革命。要分析自媒体中民众意愿表达的"本真"和"后真相"问题,由此所形成的悖论指引了辩证思维的方向。不能把数字化简单地等同于大数据。与数据挖掘联系在一起的大数据的镜像化反映离不开诠释。马克思的实践诠释论决定了必须对民众意愿的自媒体表达持敬畏态度,这就成为人们在大数据形成过程中进行正确诠释的根本态度。在诠释中区分其"本真"和"后真相",从而旗帜鲜明地运用网络了解民意、开展工作。


个人数据治理模式的选择:个人、国家还是集体


丁凤玲

点击此处查看全文

在数据时代,用户为了避免社会性死亡,常常不得不主动贡献数据,参与资本家的监控项目,成为"科技奴隶"。面对用户与公司之间所形成的不平等地位,个人式的数据治理模式只关注赋权,忽视数据治理的复杂性,从而面临着既无法在现行法学理论下明确数据权利的范畴,又无法避免用户权利难以实现的两难处境。国家式数据治理模式中的数字服务税和国有化方式在解决不平等的问题上具有片面性和间接性,而且还有使用户权益进一步受限的潜在风险。相比之下,集体式数据治理模式是较优的选择,其中,数据信托比数据工会更可取。数据信托通过自下而上的团体自治实现算法反制,能够有效应对数据经济中的不平等问题。


数据中台在应对突发公共事件中的核心价值研究


张驰

点击此处查看全文

面对突发公共事件,政务应急体系暴露出的一个明显短板是数据中台缺失。数据中台是大数据政务运用的平台化、具体化、实践化。针对政务数据碎片化、分散化、冗余化现象,数据中台能发挥将可用的数据"用起来",将分散的数据"统起来",将分立的平台"连起来"的价值功能,在应对突发公共事件中具有监测预警、数据协同治理、网络舆情数据治理等多项核心价值。


反算法歧视:理论反思与制度建构


张恩典

点击此处查看全文

随着大数据、机器学习算法在公私事务中广泛而深入的运用,算法自动决策引发的歧视问题逐渐突显出来。受算法决策自动性和模糊性等因素影响,大数据算法歧视呈现出高度的隐蔽性、结构性、单体性与系统连锁性特征,增加了歧视识别、判断和规制的难度,并给传统以差别待遇为标准的反分类歧视理论和以差别性影响为标准的反从属歧视理论带来适用困境。因此,宜对两大反歧视理论加以适当调适,一方面,降低差别待遇标准的适用门槛,并将反刻板印象歧视理论整合到反分类歧视理论之中;另一方面,提高差别性影响标准的豁免门槛,以增强传统反歧视理论在算法自动决策场景中的适应性。在此基础上,基于所欲实现之反歧视目标,针对算法自动决策中存在的歧视类型,我国应采行类型化规制思路,建立健全的算法模型数据清洁制度、算法歧视审查制度和算法歧视影响评估制度,从事前、事中和事后全过程对算法歧视加以规制。


人工智能体的道德嵌入


潘斌

点击此处查看全文

人工智能能否成为道德主体面临着众多质疑,强人工智能的兴起及其对人类智能的极大增强与可能超越使得人类高度重视并赋予其道德主体资格与权利。我们必须为智能机器嵌入道德准则,但又面临着三重难题:一是程序员本人的道德取向与品质;二是为智能机器嵌入何种道德准则,例如无人驾驶所面临的道德悖论;三是不同智能体之间如何达成道德妥协。人机融合与责任伦理将是未来时代应对智能机器的有效路径。


机器入身:微机器时代的身体景观及其问题反思


吴红涛

点击此处查看全文

人类当前正在经历的"微时代",某种意义上即是全民争相使用微机器的时代。从巨机器到微机器,身体与机器所形构的关系不断发生改变。微机器由于功能强大且形态轻便,成为人们随身携带的必需品,身体与机器之间的时空障碍被消解,"机器入身"成为不可置疑的事实。随着微机器的日趋普及,"机器入身"已流行于人们的日常生活,在现实世界中促生了大量为其特有的身体景观。这些身体景观形象宣示了微机器话语对于身体的强势改造,在营造"超级身体"神话的同时,也在一定程度上导致了身体畸态和身心失衡的伦理困境。微机器为身体所施加的反控制力,逐渐弱化了身体本真性,"无器官身体"对于"人之为人"的身体伦理提出了严峻挑战,亟待引起关注。


大数据价格歧视行为之非法性认定研究:问题、争议与应对


付丽霞

点击此处查看全文

大数据价格歧视是经营者基于数据分析而实施的个性化行为之一,其具有过度剥削消费者剩余和侵犯个人隐私的社会风险,存在明显的不合理性。然而,现有的《反垄断法》《消费者权益保护法》《电子商务法》以及"数据保护规则"在适用上都存在争议,难以对大数据价格歧视行为进行有效规制。通过对《反垄断法》《消费者权益保护法》《电子商务法》以及"数据保护规则"立法目的与修法成本的比较与权衡后可以确定,展开对《电子商务法》第18条第1款的适用解释,明晰非法性认定的相关标准,是规制大数据价格歧视行为的最优解决方案。


大数据时代侵犯公民个人信息罪行为规制模式的应然转向

——以“AI换脸”类淫秽视频为切入


黄陈辰

点击此处查看全文

《刑法》第253条之一"侵犯公民个人信息罪"采取的是基于源头治理逻辑的行为规制模式,其仅将非法获取与非法提供他人信息的行为规定为犯罪。这种模式设计虽基于一定的理性考量,但其从产生之初即内嵌着忽略非法利用行为原动力地位、过度依赖前端行为与末端行为之间供给关系的固有局限,无法适应利用他人照片制作"AI换脸"类淫秽视频等大数据时代异化而来的新问题,故应进行模式转换,在保留非法获取与非法提供行为的基础上,将非法利用行为纳入侵犯公民个人信息罪的规制范围,合并规定于《刑法》第253条之一第1款,并适用该款法定刑,完成从源头治理到全程打击的模式转型,实现对公民个人信息的周全保护。


“拷问”数据财产权

——以信息与数据的层面划分为视角


王镭

点击此处查看全文

数据可从信息内容(语义层面)、符号(句法层面)以及实体这三个层面进行界定。现有法律框架对此已有一定程度的保护。在信息内容层面,个人数据并未获得财产权地位,而时事新闻信息与商业秘密信息仅可获得临时性防御权保护;在符号层面,构成数据库的数据集合或可作为汇编作品获版权保护,或可基于实质投入而获特别保护,其他数据则处于保护的真空之中;数据实体层面已受到存储载体所有权的保护。当前设立数据财产权的个人保护动因和激励动因皆不充分。同时,无论是对信息内容还是对符号层面赋予财产权,都会对信息自由造成不当限制。因此,信息内容应保持自由开放,数据符号则不应突破现有知识产权保护框架,对两者均不应设立数据财产权。


论大数据视角下的隐私权保护模式


齐鹏飞

点击此处查看全文

在大数据场景下,传统隐私权保护模式存在保护范围不及且能力不达的困境。从隐私权保护模式相关理论中抽丝剥茧,大数据场景下的隐私权核心是个人信息。本文以个人信息保护为主线,通过对比欧洲综合规制模式和美国市场自律规制模式,为我国隐私权保护寻找切实可行的出路。我国隐私权保护可综合借鉴德国模式和美国模式的有效方式,以人格尊严和人身自由保护为宗旨,建议立法回应大数据视角下市场需要与隐私利益的复杂关系,全面保护个人信息的人格利益和财产利益。


大数据时代个人信息匿名化的规制治理


张涛

点击此处查看全文

在大数据时代,个人信息匿名化是维持个人隐私权益、社会公共利益、企业经济利益之间平衡的重要手段之一。个人信息匿名化综合了技术与法律,作为一种数据处理技术及处理行为对传统规制体系提出了挑战。欧盟已经形成以多元主义为核心的个人数据匿名化规制治理,在规制规则、规制机构、规制标准、规制手段等方面积累了丰富的经验,对当前我国个人信息匿名化规制治理具有重要参考价值。我国应尽快出台《个人信息保护法》,构建个人信息匿名化制度。通过设置个人信息匿名化专责机构,制定个人信息匿名化技术标准,完善个人信息匿名化认证制度,综合运用行政约谈、行政处罚等规制手段,实现良善治理,同时强化私人部门、行业协会的自我规制。


论人工智能体刑法适用之可能性


马治国  田小楚

点击此处查看全文

随着科学技术的创新发展,人工智能技术已经普遍运用于人类生活的各个领域。目前的人工智能技术虽然还停留在弱人工智能阶段,但其所引发的法律问题却不容忽视。据此,本文尝试通过犯罪主体的界定与分析,论证人工智能体应当是介于人与物之间特殊的刑事责任主体,并提出将人工智能体的智能化程度比拟自然人的刑事责任年龄,以此判定人工智能体的刑事责任能力。此外,进一步分析人工智能体侵害行为有体性,通过条件说模型和介入因素说模型分别阐释人工智能体在刑法因果关系理论的适用与依据,并建议通过研发人工智能"黑匣子"装置追踪事故发生原委,从而遵循刑事责任过错推定原则。基于以上分析本文认为,人工智能体具有适应刑法之可能性,为未来解决人工智能新问题提供法治化科学理据。


论人工智能对未来法律的多方位挑战


高奇琦  张鹏

点击此处查看全文

人工智能的发展将对法律及其行业生态产生巨大影响,人工智能的查询服务以及诉讼服务已经对初级律师形成了压力,这也促使未来的法学教育根据新的发展形势做出相应的调整。关于人工智能电子人权的讨论会对民法的传统内涵形成巨大冲击。人工智能和机器人则使得侵权与刑事责任的鉴定变得更为复杂。在人工智能时代,法官的审判活动也会受到相应的影响。更为重要的是,人工智能背后的算法黑洞隐含着一个算法独裁的问题,这种算法独裁来自于人类对算法的依赖。如果不对这种算法独裁形成一个很好的制约,将会影响未来法律的公平正义。


- 欢迎关注本微信公众号 -

《华中科技大学学报(社会科学版)》

唯一官方微信平台

联系电话:027-87543816

投稿网站:http://hzls.cbpt.cnki.net/

版权所有

欢迎个人转发,媒体转载请联系授权

(文中插图未经注明均来自网络)


长按识别二维码关注我们

华中科技大学学报社会科学版
推荐刊文,发布信息,欢迎广大读者阅读!《华中科技大学学报(社科版)》创刊于1980年,双月刊,是中文核心期刊、CSSCI来源期刊、中国人文社会科学核心期刊、湖北省优秀期刊、全国百强社科学报、中国人文社会科学学报核心期刊。
 最新文章