国内立法监管动态
全国网络安全标准化技术委员会制定了《人工智能安全治理框架》1.0版
2024年9月9日,在2024年国家网络安全宣传周主论坛上,全国网络安全标准化技术委员会(以下简称“网安标委”)发布《人工智能安全治理框架》1.0版。
贯彻落实《全球人工智能治理倡议》,网安标委研究制定了《人工智能安全治理框架》(以下简称《框架》)。《框架》以鼓励人工智能创新发展为第一要务,以有效防范化解人工智能安全风险为出发点和落脚点,提出了包容审慎、确保安全,风险导向、敏捷治理,技管结合、协同应对,开放合作、共治共享等人工智能安全治理的原则。《框架》按照风险管理的理念,紧密结合人工智能技术特性,分析人工智能风险来源和表现形式,针对模型算法安全、数据安全和系统安全等内生安全风险和网络域、现实域、认知域、伦理域等应用安全风险,提出相应技术应对和综合防治措施,以及人工智能安全开发应用指引。
网安标委秘书处主要负责人表示,《框架》1.0版的发布,对推动社会各方积极参与、协同推进人工智能安全治理具有重要促进作用,为培育安全、可靠、公平、透明的人工智能技术研发和应用生态,促进人工智能的健康发展和规范应用,提供了基础性、框架性技术指南。同时,也有助于在全球范围推动人工智能安全治理国际合作,推动形成具有广泛共识的全球人工智能治理体系,确保人工智能技术造福于人类。
来源及全文链接:中国网信网
https://www.cac.gov.cn/2024-09/09/c_1727567886199789.htm
国家互联网信息办公室关于《人工智能生成合成内容标识办法(征求意见稿)》公开征求意见的通知
2024年9月14日,国家互联网信息办公室发布《人工智能生成合成内容标识办法(征求意见稿)》(“标识办法”)(以下简称《征求意见稿》)并公开征求意见。
《征求意见稿》共十四条,其中较为重要的条款包括要求人工智能生成合成内容标识包括显式标识和隐式标识。
《征求意见稿》明确,人工智能生成合成内容是指利用人工智能技术制作、生成、合成的文本、图片、音频、视频等信息。而要求添加的标识的具体解释为,“显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可被用户明显感知到的标识。隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。”
根据《征求意见稿》第四条,服务提供者提供的生成合成服务属于《互联网信息服务深度合成管理规定》第十七条第一款情形的,应当按照下列要求对生成合成内容添加显式标识。
《征求意见稿》第四条几乎囊括了所有目前AI能够生产的内容,如对AI生成文本,要求在文本的起始、末尾、中间适当位置添加文字提示或通用符号提示等标识,或在交互场景界面或文字周边添加显著的提示标识;AI生成音频,要求在音频的起始、末尾或中间适当位置添加语音提示或音频节奏提示等标识,或在交互场景界面中添加显著的提示标识;AI生成视频,要求在视频起始画面和视频播放周边的适当位置添加显著的提示标识,可在视频末尾和中间适当位置添加显著的提示标识,等等。
《征求意见稿》还明确,提供网络信息内容传播平台服务的服务提供者应当采取措施,规范生成合成内容传播活动,如应当核验文件元数据中是否含有隐式标识,对于含有隐式标识的,应当采取适当方式在发布内容周边添加显著的提示标识,明确提醒用户该内容属于生成合成内容等。
来源:新京报
全文链接:
https://www.cac.gov.cn/2024-09/14/c_1728000676244628.htm
国家互联网信息办公室关于《网络安全技术 人工智能生成合成内容标识方法》强制性国家标准(征求意见稿)意见
2024年9月14日,国家互联网信息办公室发布《网络安全技术 人工智能生成合成内容标识方法》强制性国家标准(征求意见稿)(“标识标准”)(以下简称《征求意见稿》)。
《征求意见稿》描述了人工智能生成合成内容显式标识和隐式标识的方法,适用于规范生成合成服务提供者和内容传播服务提供者对人工智能生成合成内容开展的标识活动。显式标识指能被用户直接感知的标识,主要用途是提示用户当前内容由人工智能生成合成,实现方式包括内容显式标识、交互场景界面显式标识等。隐式标识指用户不能直接感知、不影响用户正常使用,但通过技术手段能从内容中提取的标识,主要用途是记录生成合成内容信息,实现方式包括元数据隐式标识、内容隐式标识等。
《征求意见稿》还列举了显示标识的应用场景,包括智能对话、合成人声、人脸生成、图生视频等。
来源及全文链接:中国网信杂志
https://mp.weixin.qq.com/s/GEcEXRHiU--u9mLZCb15cg
中国科学院科研道德委员会关于印发《关于在科研活动中规范使用人工智能技术的诚信提醒》的通知
2024年9月11日,中国科学院科研道德委员会办公室印发《关于在科研活动中规范使用人工智能技术的诚信提醒》(以下简称“提醒”),提醒包括八个方面,涉及选题调研、申报材料、数据收集、音视频制作、成果撰写、同行评议、科研活动声明、以及人工智能工具选择等,旨在防止学术不端行为,确保科研活动的真实性和可靠性。主要内容为:
在选题调研时,可使用AI技术,但需核实信息真实性。
申报材料中使用AI内容需声明,反对使用未经核实的AI生成材料。
数据收集使用AI时,需声明使用情况,反对将AI数据作为实验数据。
音视频和图表制作可使用AI辅助,需标识并声明使用情况。
成果撰写可使用AI辅助,但反对将AI生成内容作为核心成果。
反对使用AI撰写同行评议意见,不得上传评议信息至未经认可平台。
使用AI技术需在科研材料中声明工具名称、版本、日期及使用过程。
选择AI工具应使用国家备案登记的服务,反对滥用AI技术危害数据安全和侵犯知识产权。
来源:中国科学院科研道德委员会
重庆警方公布打击整治利用AI合成技术编造谣言五起典型案例
近年来,重庆警方公布打击整治利用AI合成技术编造谣言五起典型案例,近年来,随着人工智能技术的日益火爆,网络编造和传播谣言的成本也变得更低。利用AI合成技术编造谣言,甚至生成逼近真实的图片、音视频,颠覆了“有图有真相”的常规认知,让人难辨真假。为维护网络清朗空间,重庆警方在“净网2024”专项行动期间,持续加大对AI造谣的打击整治力度,发现一起处理一起,于2024年9月30日公布五起典型案例。
两江新区公安分局依法查处王某利用AI软件编造“某地农村消费合作社服务点遭暴力袭击”网络谣言案;
涪陵区公安局依法查处余某某利用AI软件编造“某地一银行遭劫匪袭击”网络谣言案;
武隆区公安局依法查处刘某利用AI软件编造“北方一城市某工厂被大风夷为平地,多人死伤”网络谣言案;
奉节县公安局依法查处徐某某利用AI软件编造虚假交通违法处理单网络谣言案;
合川区公安局依法查处石某利用AI软件编造虚假交通违法处理单网络谣言案。
来源:重庆网警
北京互联网法院发布AI侵权典型案例
2024年08月26日,北京互联网法院召开保障新质生产力新闻发布会,发布《北京互联网法院服务保障新质生产力加快发展白皮书》(以下简称《白皮书》)及十大典型案例,全面梳理总结司法服务保障新质生产力工作经验。
其中涉及AI侵权的有案例一、六、七及案例八:
案例一:全国首例AI文生图著作权侵权案:人工智能生成内容的法律属性及权利归属的认定——李某某诉刘某某侵害作品署名权和信息网络传播权纠纷案;
本案明确人利用人工智能生成的内容,若符合作品的定义,则应被认定为作品,受到著作权法保护。同时人工智能生成内容若体现出使用者的独创性智力投入,则相关著作权一般应归属于人工智能使用者。
案例六:“AI陪伴”案:未经同意创造以自然人的AI形象构成对人格权的侵害——何某诉某科技公司网络侵权责任纠纷案;
本案明确自然人的人格权及于其虚拟形象,未经许可擅自创设、使用自然人虚拟形象的,构成对自然人人格权的侵害;网络服务提供者通过算法设计实质参与了侵权内容的生成和提供,应按照内容服务提供者承担侵权责任。
案例七:AI生成声音侵权案:自然人声音权益可及于AI生成声音——殷某某诉某智能科技公司等人格权侵权案;
本案明确声音作为一种人格权益,具有人身专属性,自然人声音权益及于利用人工智能合成的声音,对录音制品的授权并不意味着对声音AI化的授权,未经权利人许可,擅自使用或许可他人使用录音制品中的声音构成侵权。
案例八:“AI换脸”案:未经授权对包含他人肖像的视频进行“AI换脸”处理,构成对他人个人信息权益的侵害——廖某诉某科技文化有限公司网络侵权责任纠纷案。
本案明确了肖像权“可识别性”不局限于面部,但应当主要集中于自然人的个人生理特征,避免肖像权的任意扩张影响妆容、造型等领域的合法使用及创作传播。本案围绕“AI换脸”这一新商业模式,对肖像权、个人信息权益及基于劳动创造投入的合法权益进行准确区分,既维护自然人的合法权益,又为人工智能技术和新兴产业发展留有合理空间,对于服务和保障数字经济规范健康发展有重要意义。
来源:北京互联网法院
境外立法监管动态
《人工智能能力建设普惠计划》发布
2024年9月25日,在中国和赞比亚合办的“加强人工智能能力建设国际合作高级别会议”上,中国提出“人工智能能力建设普惠计划”(以下简称“计划”),并呼吁各方对人工智能能力建设加大投入,旨在为弥合数字和智能鸿沟,特别是帮助全球南方在人工智能发展进程中平等受益,中方认为要坚持联合国在国际发展合作中的统筹协调作用,坚持真正多边主义,基于主权平等、发展导向、以人为本、普惠包容、协同合作原则,通过南北合作、南南合作和三方合作等形式,切实落实联大加强人工智能能力建设国际合作决议(A/RES/78/311),推动落实联合国2030年可持续发展议程。
普惠计划围绕各方尤其是全球南方期待的人工智能基础设施、产业赋能、人才培养、数据建设、安全治理等领域合作提出“五大愿景”,明确中方将采取的“十项行动”,包括促进人工智能和数字基础设施联通,开展模型研发和应用、语料建设等合作,加强人工智能战略对接和政策交流,积极分享技术实践。中方将于2025年底前重点面向发展中国家举办十期人工智能领域研修研讨项目。为推进普惠计划落实,中方还倡议成立“人工智能能力建设国际合作之友小组”。
来源:中国外交部
全文链接:
https://www.mfa.gov.cn/web/wjbzhd/202409/t20240927_11498463.shtml
美国加州州长否决人工智能安全法案SB1047
美国加州州长加文 纽森(Gavin Newsom)于2024年9月30日否决了具有争议的《前沿人工智能模型安全创新法案》(简称SB 1047),他在否决消息中提到了多个影响他决定的因素,包括该法案对AI公司施加的负担、加州在该领域的主导地位以及对该法案可能过于宽泛的批评。
据了解,SB 1047 法案旨在为训练成本超过1亿美元或者达到一定算力的开发者制定安全标准,确保大规模人工智能模型的安全开发。该法案要求大型前沿人工智能模型的开发者采取预防措施,例如部署前测试、模拟黑客攻击、安装网络安全保障,以及为举报人提供保护等。
该法案于今年2月被提交给加州议会,引起很大争议。8月19日,加州立法机构公布了法案的修订版。该法案得到有“人工智能教父”之称的杰弗里 辛顿和约书亚 本吉奥的支持,但也遭到杨立昆、李飞飞等科学家,以及头部人工智能企业的反对,称该法律将“阻碍创新”。
纽森称,“虽然SB1047的出发点是好的,但它并没有考虑人工智能系统是否部署在高风险环境中,是否涉及关键决策或使用敏感数据。相反,只要是大型系统部署,该法案甚至对最基本的功能都适用严格标准。我不认为这是保护公众免受该技术构成的真正威胁的最佳方法。”
纽森还称,该法案可能“给公众一种关于控制这种快速发展的技术的虚假安全感”,他称,“更小、更专业的模型可能与SB 1047所针对的模型一样甚至更危险——其代价可能是削弱推动公共利益进步的创新。”
纽森表示,他认同应当应该制定安全协议和护栏,并且不良行为者要承担“明确且可执行”的后果。然而他指出,他认为国家不应该“满足于一个不以人工智能系统和能力的实证轨迹分析为依据的解决方案”。
来源:C114通信人家园
美国商务部公布新规要求AI公司报告模型训练进展,声称将阻止外国使用美国技术
2024年9月9日,美国商务部下属的工业与安全局(BIS)对外发布了“建立先进人工智能(AI)模型和计算集群开发的报告要求”拟议规则(以下简称“拟议规则”),并向公众征求意见,相关评论意见应当在拟议规则公布之日起30天(10月11日之前)提交给BIS。
BIS表示,拟议规则的推出,是为了执行拜登2023年10月30日发布的《安全、可靠和值得信赖的人工智能开发和使用》第14110号行政令第4.2(a)节。
拟议规则中要求,美国先进AI开发商和云计算提供商提供详细的基础模型开发报告,并将强制企业向美国政府报告“前沿”AI模型和计算集群的开发活动,以确保这些技术的安全性并能抵御网络攻击。根据该提案,BIS收到企业提交的信息“对于确保这些技术符合严格的安全性和可靠性标准、能够抵御网络攻击以及降低被外国对手或非国家行为者滥用的风险至关重要”,预计将涉及亚马逊AWS、谷歌云、微软云等15家AI企业的具体信息。
拟议规则要求,如果美国人士正在或者计划6个月内训练超过一定参数门槛的大模型或训练集群,就应每个季度向BIS报备。相关企业还需报告其网络安全措施和进行的红队行动的结果,以测试和评估其系统的安全性。
拟议规则明确指向大模型的军事用途,特别关注军民两用基础模型,要求收集相关信息以减小网络攻击对这些模型的影响,并防止其被外国对手或非政府实体滥用。
这项新规旨在加强对先进AI技术的监管,确保其安全性和可靠性,同时保护美国的国家安全和防御能力。
来源:钛媒体
全文链接:
https://www.federalregister.gov/documents/2024/09/11/2024-20529/establishment-of-reporting-requirements-for-the-development-of-advanced-artificial-intelligence#:~:text=This+proposed+rule+would+amend+the+Bureau+of+Industry+and
世界首个有法律约束力的AI公约出炉,欧美英已签署
2024年9月5日,欧洲委员会宣布《人工智能与人权、民主和法治框架公约》(下称《AI公约》)正式向全球各国开放签署,这是全球首部具有法律约束力的公约。
《AI公约》由欧洲委员会牵头制定,条约内容于今年5月确定,一共有57个国家参与了讨论过程,其中包括加拿大、以色列、日本、澳大利亚等11个非欧盟成员国。官方最新消息显示,目前已经有10个国家和组织签署了《AI公约》,美国、欧盟、英国、以色列都在首批签署名单中。
接下来,《AI公约》需要各个签署国国内立法机构的批准,一旦得到5个立法机构的批准(其中至少包括3个欧洲委员会成员国),公约会在三个月后开始生效。
需要注意的是,《AI公约》旨在解决AI风险和安全问题,主要聚焦于保护人权。牵头制定的欧洲委员会(Council of Europe)为国际组织,宗旨为维护欧洲的人权、民主和法治,而非欧盟委员会这样的行政机构。
具体内容上,《AI公约》共8章36个条款,为AI规定了一系列原则,包括保护隐私和个人数据、平等和非歧视、不损害人的尊严和自主……公约要求签署国对人AI产生的任何有害和歧视性结果负责,并要求AI侵权的受害者拥有法律追索权。
与欧盟的《AI法案》不同的是,该公约涵盖了公共和私营部门的AI使用。公共当局需要评估、管理、监督AI系统全周期内可能产生的影响。在自身使用AI时,必须确保透明度和公众参与机制,公众需要有途径质疑AI决定,并向当局提出投诉。
尽管《AI公约》具有法律约束力,但有批评声指出,公约没有罚款等制裁措施,靠各签署国向欧洲委员会递交报告。这种报告机制是国际条约的常见做法,是一种较弱的执行方式。
来源:21经济网
FTC 连续打击五起AI相关虚假宣传
2024年9月25日,美国联邦贸易委员会(FTC)近期通过“Operation AI Comply”行动,对五起涉及AI虚假宣传的案件进行了打击。这些案件包括虚假的AI服务和生成虚假消费者评论的工具。
以下为五个案例的概述:
DoNotPay案例: FTC指控DoNotPay公司声称其在线订阅服务使用聊天机器人为美国法律系统准备“坚不可摧”的文件,并声称能检查网站法律违规,但实际服务并未达到宣传效果。
Ascend Ecom案例: FTC在加州提起的诉讼中,指控一组公司及其官员使用虚假收益声明,诱导人们投资于所谓的由AI驱动的“无风险”商业机会。
Ecommerce Empire Builders案例: FTC在宾夕法尼亚州提起的诉讼中,指控一家公司及其官员违反了FTC法案和商业机会规则,通过AI驱动的收益声明误导人们。
FBA Machine案例: FTC在六月对新泽西州的一组企业和其所有者提起诉讼,指控他们使用虚假收益声明,诱导人们投资于所谓的由AI驱动的“万无一失”的商业机会。
Rytr案例: FTC指控一家特拉华州的公司销售AI写作助手,该工具专门设计用于为客户生成在线评论和推荐,但这些评论很可能是不真实的。
FTC提醒企业在使用AI工具时要持怀疑态度,不要发布虚假评论,并在广告中真实地使用AI技术。
来源:美国国务院
Clearview AI因非法收集用于面部识别的数据被罚款3050万欧元
2024年9月3日,荷兰数据保护局(Dutch DPA)对美国公司Clearview AI 处以3050万欧元的罚款。
DPA在发布的公告中解释说,Clearview创建了一个包含数十亿张人脸照片的非法数据库,其中包括荷兰人的照片,并且没有正确告知人们其正在使用他们的数据。Clearview的首席执行官在2023年初曾声称该公司拥有300亿张图像。
Clearview必须立即停止所有违法行为,否则将面临最高510万欧元的违规罚款。荷兰DPA主席Aleid Wolfsen 表示:“面部识别是一种高度侵入性的技术,不能简单地将其用于世界上的任何人。如果你的照片在互联网上,那么你可能会出现在Clearview的数据库中并被追踪。”他补充说,面部识别可以帮助提高安全性,但应该由“受严格条件约束的”主管部门来处理,而不是商业公司。
DPA进一步指出,由于Clearview违反了法律,因此使用它也是非法的。Wolfsen警告说,使用Clearview的荷兰公司也可能面临“巨额罚款”。Clearview没有对DPA的罚款提出异议,因此无法提起上诉。
来源:IT之家