“数字时代的平台责任——电商、内容与人格权的法律边界”论坛成功举办

学术   2024-12-23 23:48   广东  




“数字时代的平台责任——电商、内容与

人格权的法律边界”论坛成功举办




近期,广东财经大学法学院、广东财经大学法治与经济发展研究所、广东财经大学法学院人工智能法研究中心举办了“数字时代的平台责任——电商、内容与人格权的法律边界”论坛,学者和从业者们围绕游戏、短剧、名誉权保护、内容电商业态、人工智能与平台责任等议题展开了讨论。

根据中国互联网信息中心的报告,截至2024年6月,中国网民规模已达10.51亿,其中网络购物用户规模达到8.41亿,短视频用户规模达到9.62亿。这一庞大的用户基数和高频的使用率,以及平台自身模式的丰富,使得平台在内容管理、交易监管和用户权益保护等方面面临着前所未有的挑战。

内容发布、电商直播、社交媒体、传播宣发.......随着数字经济快速发展,互联网平台的职能越来越复杂,平台责任界定模糊,如何精准担责成为亟待解决的问题。

(一)内容电商业态涌现 内容平台如何担责?


北京大学法学院教授薛军曾参与《电子商务法》制订,他谈及,2018年8月31日颁布的《电子商务法》是以淘宝等典型的电商平台为预设,第一次在法律层面以及一般性的意义上规定了平台经营者在从事平台运营的过程中需要承担的一系列法律责任。

互联网经济日新月异,商业模式越发丰富。薛军指出,电商平台、内容提供平台和社交媒体平台等均呈现出多元化和超级平台化的趋势,并展现了聚合平台、流量入口型平台等新的特征。

这也给平台责任的认定带来了问题。

比如电商领域出现的半托管、全托管等模式。“此前平台和平台内的经营者是两个独立的主体,平台只提供平台服务,通常不会介入买卖双方交易等。”北京工商大学法学院教授吕来明指出,在新的托管模式下,商家把商品的一部分关键的经营权限托管给平台,甚至包括整个售后、定价、价格全部交给平台。这种情况下,需要重新思考这是否还是单纯的平台服务?平台和平台内经营者的身份是否已经混合?

当前直播带货、种草带货已成为电商主流,内容电商也带来了新的责任认定问题。与传统的货架电商(主要是以商品直接展示和搜索的商业模式)不同,内容电商是指在内容平台创造和传播优质的内容来吸引用户,激发用户的兴趣,最终去促使用户进行购物消费的一种商业模式。

吕来明举例称,一个博主最开始在平台发布内容,但是随着流量积累,粉丝积攒后,转而卖货或者内容植入广告。这时候社交活动和商业行为应怎么划分?

在《电子商务法》颁布之时,各个平台功能泾渭分明,但平台属性与生态越发复杂。以内容电商为例,其是否应该承担《电子商务法》中所约定的责任与义务呢?

广东财经大学法学院教授姚志伟指出,目前内容平台只要求入驻者提供身份证号码,电商平台则需要入驻者提供营业执照等更多的资料。如果将小红书、微信、抖音等综合性内容平台认定为电商平台,对内容入驻者均进行详细的资料认证,此举可行性不大。

“对于电商平台的认定,一定需要是常态化的交易行为,而不是一种偶发性的交易行为;必须是搭建交易的平台,供他人独立开展交易;必须提供网络经营场所,交易撮合信息发布等服务。”北京工商大学法学院副教授剌森指出,提供网络经营场所和交易撮合是电子商务平台最重要的功能,如果连这个功能都不具备的话,很难被认定为电商平台。

但是,如果在内容平台上,交易后发生侵权行为,如何保证消费者权益呢?

剌森指出,认为要回归到交易最终发生在哪里这个问题上,也就是最终买卖合同的订立发生在哪里,是发生在内容平台上?还是发生跳转的第三方网站上?是有导购链接,还是有购物车?这个都对认定交易行为还是广告行为产生影响。

中南财经政法大学知识产权研究中心专职研究员、法学院副教授徐小奔认为,针对非典型电商平台,应采取清单制,即平台能做到的、可以做的,以及适合平台做的有哪些责任,这些应落实。

二)网络作品越来越轻 如何保护版权迎挑战


超级平台职责“越来越重”的同时,诸如短剧、小游戏等内容产品呈现“越来越轻”的特点。

以爆火的“羊了个羊”小游戏为例,该游戏界面仅包含几个基本元素、七个卡槽以及三个基本功能键。

网络作品“越来越轻”,让快速复制成为可能,其他开发者可以轻松复制核心机制,通过重新编写代码和设计美术资源,快速推出如“牛了个牛”“猫了个猫”“狗了个狗”等游戏,在市场上迅速占据一席之地。微短剧和小说也大量存在题材重复,情节雷同等问题,比如“逆袭”和“重生”的套路。

对于“越来越轻”的内容产品,传统版权的“思想”和“表达”二分法越来越难以发挥作用。《著作权法》如何将“羊了个羊”中的游戏内核与游戏形式完全区别开来,从而认定“牛了个牛”构成侵权呢?短剧或小说里“套路”的运用,是否属于所谓的剧本侵权呢?

中山大学法学院副教授谢琳指出,侵权中的实质性至少是具体剧情和情节相似,但在短视频可能本身连情节都没有。可能只是一个桥段的相似,很难判定,争议很大。

这种情况下平台如何处理?“平台没有实质性审查义务,但近年来一些司法审判中可以看出,平台如果可以确定明显的不侵权行为,可以忽略;但如果有侵权可能性的话,需要采取删除、屏蔽等必要措施制止侵权。”谢琳指出。

一旦判定构成“相似”,有侵权可能性,平台势必采取必要措施。然而,一个短剧能不能“火”,其实就在于投放之后的2-3个星期。它们的花期短暂,若平台直接把某个剧“屏蔽”,将导致其宣发周期完全浪费,这对于短剧等作品会造成不可挽回的伤害。

这就向平台治理者们提出了挑战:在“思想即表达,表达即思想”的情况下,平台该如何制定规则和标准?在网络游戏和短剧的生态中,如何平衡侵权治理与作品保护? 

上海政法学院上海司法研究所教授徐伟认为,从实践来看,要求疑似侵权方提供一定形式的担保,例如保证金,是平台在难以判断侵权成立与否时,应对“两难”的方式之一。这种做法既能在一定程度上保护原创者的权益,又能避免对疑似侵权方造成不必要的损失。

中国社会科学院法学研究所网络与信息法研究室副主任周辉认为,可以在实践中凝练的成功样本,在司法审判中推出指导性个案,为未来留足空间。

(三)信息爆炸时代 平台如何面对名誉权侵权纠纷?


在人人都是发布者的时代,信息内容呈现几何式、爆发式增长,文字、视频、图片、音频都可能成为载体,不可避免地带来争议和纠纷。

名誉权侵权问题变得尤为突出。

据国家网信办数据,2023年在针对故意抹黑民营企业和企业家的网络侵权信息专项行动中,共查处相关案件超过10万起。这些侵权行为不仅损害了当事人的名誉权,也破坏了网络营商环境,因此对平台处理实务提出了极高的要求。

此外,还衍生出隐藏在水下的黑灰产,如提供代人投诉、维权的服务。

但是,对于构成初步证据的内容事实的真伪性,平台难以判断。许多主体在举证中主张投诉内容是不真实的、伪造的。而对于内容事实的问题,尤其涉及到一些商事主体,关联的运营状况和事实,平台很难有“管辖权”。 

“真伪”的判断似乎成了不可解的命题。徐伟认为,平台审查实际应是善恶问题。

他指出,对于平台而言,判断内容的真伪并非其责任。在审查义务上,应关注善恶问题。关键在于平台在进行审查时是否出于善意,或者是否有意不进行审查或故意不当放宽审查标准。

因此,在实际操作中,平台应自行进行审查。如果当事人对审查结果不满并诉诸法院,法院应要求平台解释为何未删除相关内容,并提供正当理由。如果平台能够提供合理的理由,解释其出于善意未进行删除,那么法院应认定其无责任。

此外,徐小奔认为根据具体情况,如果企业已经尽到了商业上合理的努力,那么就可以被视为一个“善意的平台”所应做的工作。

往深探究,这也涉及到公众知情权保障与言论自由问题。“对于涉及公众人物或企业的事件,由于这些事件关乎公共利益,平台应当适当让渡治理边界,允许更广泛的讨论。”徐小奔认为。

 姚志伟指出,在平衡平台治理的过程中,应当明确治理的边界,在涉及公共利益的事务中,平台应维护公众的知情权和言论自由。这样的治理策略不仅能保护个人权利,也能确保公共讨论的自由和开放性。

(四)人工智能时代 平台标识责任如何落实?


生成式人工智能,正从概念走向落地,驱动产业创新,也重塑信息内容的生产与传播模式。徐小奔指出,平台不仅仅是单一的“网络服务提供者”角色,还具有内容提供者的属性。从运作机制来讲,生成式人工智能平台根据用户提示词输出内容,更像一个知识创作的工具,而不再是单纯的传播平台,难以套用简单的“通知—删除”的避风港原则。

然而,如果抛开避风港规则,平台作为内容提供者,对于自身可能生成侵权内容,则需适用主动的注意义务。徐小奔指出,这对于平台而言合规难度较大。从技术层面要求溯源至训练语料进行删除,不具现实可能性,并且经济成本极其高昂,数据标注、数据溯源等技术措施开发成本高。

对于用户端,伴随着人工智能的发展,深度合成的人声、人脸替换、AI内容等,容易导致公众混淆或者误认,平台需履行标识义务,这亦是AI内容透明化的重要手段。然而,强制标识是否应“一刀切”,以及如何平衡透明性与实用性,仍是实践中的难题。

徐小奔指出,标识义务的核心在于确保公众能够有效识别AI生成内容,避免公众混淆或误解。但这一义务不能脱离实际场景。“标识的意义在于揭示真相,而非制造混乱。如果所有AI内容都被强制标注,可能反而导致公众对标识的忽视。”

标识的对象与语境也是一个重要的考量因素。虎牙科技合规及海外法务总监王平建议区分不同风险的AI标识义务,针对各场景所对应的不同风险水平,可考虑要求不同程度、不同显著性的标识:“资源有限的情况下,全面显性标识可能引起平台标识义务的“寒蝉效应”,审核成本大幅增加,提示效果却未必显著”。将审核、标识资源集中于高风险内容,以优化资源分配,可能是解决策略之一。

此外,全面标识除了分散用户对高风险内容的注意,还降低了用户沉浸式使用AI的体验水平:在虚拟主播的互动中,粉丝往往已明确了解与其互动的是数字分身,强制要求标注“非真人”可能破坏用户体验。“就像告诉一位热爱偶像的粉丝‘这只是个数字人’,可能让他们体验感显著降低。”

徐小奔认为,标识不能成为“狼来了”的故事,应服务于高效识别与风险管理的目的。其中关键在于,让技术与法律共同服务于公众利益。与公众走向协作与信任,AI技术的发展才能在安全与创新的双重轨道上行稳致远。

「READING」

排版丨陈   诺

责任编辑丨余君婷

初审丨吕   锐

复审丨刘   薇

终审丨陈   静



广财法学
传播学院资讯,共享法学精彩!
 最新文章