国内立法监管动态
人工智能法草案列入2024年国务院立法计划,预备提请全国人大常委审议
2024年5月9日,国务院办公厅印发《国务院2024年度立法工作计划》(以下简称《国务院立法计划》),多部网络法治相关立法在列。按照《国务院立法计划》,今年拟提请全国人大常委会审议的法律案共21件,拟制定、修订的行政法规30件。值得一提的是,“人工智能法草案”列入《国务院立法计划》中预备提请全国人大常委会审议项目,这也是该法连续第二年列入国务院立法计划预备提请审议项目。2023年6月,国务院办公厅印发《国务院2023年度立法工作计划》,明确提出“预备提请全国人大常委会审议人工智能法草案”。2023年7月14日,国家互联网信息办公室联合国家发展和改革委员会等部门发布《生成式人工智能服务管理暂行办法》,成为我国现阶段促进生成式人工智能健康发展和规范应用的主要法规。
《中国(上海)自由贸易试验区临港新片区进一步集聚发展新型算力赋能新质生产力若干政策》正式印发
2024年5月7日召开的2024年临港新片区智算大会上,发布了《中国(上海)自由贸易试验区临港新片区进一步集聚发展新型算力赋能新质生产力若干政策》(以下简称《政策》)。《政策》以技术革新赋能新质生产力为导向,以构建智能绿色、自主可控的算力中心集群为重点,以支持算力要素技术研发和创新场景应用为引领,推动形成具有国际竞争力的产业生态格局,拓展“算力高地”的产业深度和辐射广度。
根据《政策》,临港新片区的支持范围覆盖筑强智算中心建设、实施智算高效调度、提升绿色智算水平、支持自主可控的智算要素以及打造创新融合的“智算+”应用场景。同时,结合临港新片区在跨境数据流动的独特制度优势,推动算力赋能国际数据合作发展。
实际上自2019年揭牌以来,临港新片区已经基本形成完备的算力基础设施体系。其中,在基础建设方面,目前新片区已布局含三大运营商、商汤科技、有孚网络等8个算力中心,设计PUE(能源使用效率)小于1.3。总体算力规模领先,智算比例高,可调度算力约3EFLOPS,占上海市总体算力比例约20%。
本次《政策》旨在更进一步充分发挥临港新片区独特区位、政策、 产业等优势,以技术革新赋能新质生产力为导向,以构建智能绿色、自主可控的算力中心集群为重点,以支持算力要素技术研发和创新场景应用为引领,推动形成具有国际竞争力的产业生态格局,拓展“算力高地”的产业深度和辐射广度,并进一步指导和帮助相关企业、科研机构、高等院校、行业协会等机构在临港新片区实施的与算力产业相关的项目。
围绕国家人工智能创新应用先导区建设,南京市制定出台了《南京市进一步促进人工智能创新发展行动计划(2024—2026年)》和《南京市促进人工智能创新发展若干政策措施》。5月30日上午,南京市召开新闻发布会,相关部门板块现场发布和解读《行动计划》《政策措施》“1+1”文件,旨在通过政策引导、创新驱动、应用牵引,打造具有全国影响力的人工智能产业发展高地。
《行动计划》在总体目标上提出,到2026年,力争引培国内外先进水平的基础大模型1个,打造行业大模型20个以上,可统筹智能算力超6000PFLOPS(FP16),每年打造30个标杆应用场景,实现人工智能核心产业规模600亿元,打造具有全国影响力的人工智能产业发展高地。在重点任务方面,《行动计划》明确了实施算法创新强基行动、算力支撑提升行动、数据汇聚共享行动、AI+应用示范赋能行动、产业集聚升级行动五大行动,共18项任务。为推动落实行动计划,附件《政策措施》提出了支持算法创新突破、提升算力支撑能力、推动“人工智能+”应用创新示范和构建良好产业生态四个方面的12条具体措施。
南京市的《行动计划》和《政策措施》结合了目标导向和具体措施,展示了政府对人工智能产业发展的重视和投入。从设定的具体目标到落实的重点任务,再到保障措施,形成了一个完整的政策框架。尤其是在算法创新、算力提升、数据共享和应用示范方面,南京市通过多维度的支持政策,致力于打造一个全面发展的人工智能产业高地。有助于提升南京在全国人工智能领域的影响力,也为地方经济的高质量发展提供了新动能。
来源:南京日报
为进一步推动人工智能产业持续快速健康发展,强化人工智能产业自律,促进人工智能企业能力提升,2024年5月27日深圳市工业和信息化局发布了深圳市人工智能产业协会牵头草拟了地方标准《人工智能企业等级评定规范(征求意见稿)》(以下简称《规范》),公开向社会各界、相关单位和专家征求意见,。
《规范》规定了人工智能企业在企业资格、创新能力、业务收入、产品服务、质量保证、企业诚信、经营环境等方面的要求,亦规定了人工智能企业的评定要求和结果的应用及人工智能企业评定机构的要求。
《规范》的制定是为了全面贯彻落实《深圳经济特区人工智能产业促进条例》中第八条:市市场监管部门应当会同市产业主管部门等有关部门建立和完善人工智能地方标准体系。鼓励高等院校、科研机构、企业和其他组织参与制定人工智能领域的国际标准、国家标准、行业标准、地方标准和团体标准。第九条:市统计部门、市产业主管部门应当会同其他有关部门,建立健全人工智能产业统计分类标准,制定和完善人工智能产业统计分类目录,有序开展人工智能产业统计调查和监测分析工作。
由深圳市人工智能产业协会产业研究部统计,截止2023 年12 月底,深圳市人工智能产业总产值3012 亿元。以“人工智能”关键词注册企业合计91364 家。面对如此庞大的企业数量,如何科学、客观地评定人工智能企业的等级,成为了一个亟待解决的问题。通过《规范》的制定和实施,能够筛选出不同等级的人工智能企业,为政府和投资者提供了决策依据,精确地分配资源,降低投资风险,推动卓越企业的发展,对于深圳市打造全球人智能先锋城市来说具有重要意义。
来源:深圳市工业和信息化局
全文链接:
网安标委员印发《网络安全技术生成式人工智能服务安全基本要求》征求意见稿
2024年5月23日,全国网络安全标准化技术委员会秘书处发布关于国家标准《网络安全技术生成式人工智能服务安全基本要求》征求意见的通知,面向社会广泛征求意见。
2023年7月,国家网信办等七部门发布了《生成式人工智能服务管理暂行办法》(以下简称“《办法》”),为全方位支撑《办法》,推动生成式人工智能的安全健康发展,《网络安全技术 生成式人工智能服务安全基本要求》被列入国家标准需求。
标准针对生成式人工智能服务存在的安全风险,对现有生成式人工智能技术及其面向公众提供的服务进行分析与调研,对《办法》中的安全要求进行细化,规定了生成式人工智能服务在安全方面的基本要求,包括训练数据安全、模型安全、安全措施等,并给出了安全评估参考要点。标准适用于服务提供者开展安全评估,也可为相关主管部门提供参考。
标准提出覆盖服务全生命周期的安全要求,防范化解服务过程中的应用场景安全风险、软硬件环境安全风险、生成内容安全风险以及权益保障安全风险等。针对生成式人工智能服务上线前的模型研发过程,重点关注训练数据来源安全、训练数据内容安全、数据标注安全,以及模型安全。针对面向公众开放后的服务提供过程,重点关注在提供服务过程中应采取的安全措施。
标准工作基于 TC260-003《生成式人工智能服务安全基本要求》,该文件已经在各管理部门、各企业有较好共识,并已形成相关安全实践,已经在各企业获得了普遍实践,标准内容的产业化基础比较充分。
江西省鹰潭市余江区人民法院公开宣判全国首例“AI外挂”案,被告获刑三年
5月6日下午,江西省鹰潭市余江区人民法院公开宣判全国首例“AI外挂”案,对于被告人王某合以提供侵入、非法控制计算机信息系统程序、工具罪,判处有期徒刑三年,缓刑五年,并处罚金人民币15万元;已退缴的违法所得及扣押的作案工具予以没收,上缴国库;剩余未退缴的个人违法所得继续追缴。宣判后,被告人王某合表示服从判决,不上诉。
经审理查明:被告人王某合为通过制作出售 “AI外挂”的方式牟利,2022年,其先后联系万某至、张某(另案处理)等人编写“AI外挂”程序。程序制作完成后,王某合利用网络平台招聘陈某勇、张某文(另案处理)等人作为代理销售程序,并通过出售“AI外挂”点卡密码等获利。至案发,王某合非法获利共计629万余元,支付万某至制作费用84万余元,支付张某制作费用42万余元。经鉴定,案涉“AI外挂”中“cvc”等程序对多款游戏中游戏画面数据进行了未授权获取,对游戏中处理的鼠标数据指令进行了未授权的修改,增加了游戏中“自动瞄准”和“自动开枪”的功能,干扰了游戏的正常运行环境,属于破坏性程序。盒子程序源代码具有接收计算机USB端口传输的鼠标数据指令,并对指令进行计算解析,再将计算结果发送至计算机USB端口,从而实现控制计算机鼠标指针自动移动和点击的功能。
鹰潭市余江区人民法院认为,被告人王某合提供专门用于侵入、非法控制计算机信息系统的程序、工具,并获取巨额利润,其行为构成提供侵入、非法控制计算机信息系统程序、工具罪,且情节特别严重。被告人王某合归案后如实供述自己的罪行,属坦白,依法可以从轻处罚;其自愿认罪认罚并退缴违法所得,依法可以从宽处理。法院遂作出上述判决。
来源:鹰潭市余江区人民法院
重庆网信部门对某生成式AI运营主体未履行审核管理义务作出处罚
近日,九龙坡区网信办依法对属地“开山猴”AI写作网站运营主体重庆初唱科技有限公司未尽到审核管理义务、履行主体责任不到位的行为作出行政处罚。
经查,该企业运营的“开山猴AI写作大师”网站违规生成法律法规禁止的信息,未尽到主体责任义务,违反了《中华人民共和国网络安全法》《生成式人工智能服务管理暂行办法》等相关法律法规。九龙坡区网信办依据《中华人民共和国网络安全法》第六十八条的规定,给予其行政警告处罚,并责令该公司限期全面整改,加强信息内容审核,健全信息内容安全管理相关制度,暂停网站信息更新及AI算法生成式写作功能15日。
该公司负责人表示,将严格按照整改通知要求,及时做好整改,持续加强互联网法律法规学习,坚持依法办网。
下一步,九龙坡区网信办将持续加强网络监管,压紧压实网络平台主体责任,依法查处网络违法违规行为,全力保障广大网民合法权益,积极构建清朗网络环境,促进互联网行业健康有序发展。
来源:网信重庆
美国众议院推出《加强海外关键出口限制国家框架法案》管制AI大模型出口
2024年5月23日,美国众议院的外交事务部委员会以压倒性多数,通过了一项限制AI出口的法案。法案全称为《加强海外关键出口国家框架法案》(以下简称ENFORCE法案),旨在让美国商务部更容易对AI模型实施出口管制,以及限制美国与外国人合作开发威胁国家安全的AI系统。
《ENFORCE法案》在5月9日首次公布,由众议院的跨党派AI工作组提出。接下来《ENFORCE法案》还需要通过众议院、参议院的全体表决以及总统拜登签署,才能落地生效。同时,参议院的跨党派AI工作组提出了AI政策路线图,拟划拨320亿美元研发经费“确保美国在AI领域的领先地位”,并透露美国今年将对AI分领域、零碎立法。
《ENFORCE法案》旨在修订2018年的《出口管制改革法案》,这一年美国将14类新兴技术纳入出口管制,打响了科技制裁。 清华大学人工智能国际治理研究院的李依栩撰文对比了两部法案,表示本次法案主要是将AI技术纳入了《出口管制改革法案》的管制框架内,通过补充AI相关定义、赋予总统管制权、增加美国人从事AI模型出口相关活动的许可义务,对AI模型进行管控。
比如,法案第三条扩展了总统管制权,管制对象是特定受限的AI系统、对美国国家安全至关重要的新兴和基础技术相关活动;法案第四条增加了一项额外权利,如果美国人在出口、再出口被确定为对美国国家安全至关重要的新兴和基础技术,包括设计、开发、生产、维修、翻新这些技术,美国总统有权要求他们申请并获得商务部许可。
具体哪些AI系统会被影响?《ENFORCE法案》目前的管制范围比较笼统,定义部分只明确点出了模型权重(model weights)一词。整体来看,出口限制主要是针对危险程度较高的高性能AI系统,但最终将限制哪些AI系统,法案要求商务部部长、国防部部长、能源部部长以及国务卿进行协商,协商时间期限为一年内。
来源:21世纪经济报
全文链接:Congress.Gov
https://www.congress.gov/bill/118th-congress/house-bill/8315/text
欧盟理事会正式批准《人工智能法案》
2024年5月21日,欧盟理事会正式批准《人工智能法案》。外界普遍认为,作为全球首部全面的人工智能法规,欧盟《人工智能法案》实施后将对全球人工智能产业链产生深远影响。
总体上,《人工智能法案》在适用范围、人工智能系统风险分级管理、通用人工智能模型管理、执法与处罚等方面,为整个人工智能产业链上的相关方提供了一个合规义务框架。法案按照人工智能系统对用户和社会的潜在影响程度将其分为4类:不可接受风险类、高风险类、有限风险类、最小风险类。风险等级越高,管控越严格。构成不可接受风险的人工智能系统,如为唆使犯罪而利用人工智能技术操纵人的潜意识、将人脸识别等生物识别技术实时应用于犯罪搜查等,是被禁止的;高风险人工智能系统,须对其风险进行评估,并确保其受到人为监督。多数人工智能系统属于风险较低的类别,但仍可能需要根据法案要求履行相应义务。
违反法案的处罚结果将取决于人工智能系统的类型、公司的规模和违法行为的严重程度。法案规定,如涉足“禁止”领域,相关方会被处以3500万欧元或全球年销售总额7%的罚款,以较高金额为准。如未履行除“禁止”以外的其他风险分类中的义务,则根据相关方业务规模等处以1500万欧元或最高不超过全球年销售总额3%的罚款。
《人工智能法案》立法进程总体进展迅速。2021年4月21日,欧盟委员会提出《人工智能法案》提案的谈判授权草案。2022年12月6日,欧洲理事会一致通过《人工智能法案》草案;2023年6月14日,欧洲议会全体会议表决确认其认同立场。此后,欧洲议会、欧洲理事会和欧盟委员会立即就法案举行了第一次“三方会谈”。经过多次会谈,三方于2023年12月8日就草案达成一致。这份草案于2024年3月13日得到欧洲议会批准。2024年5月21日,欧盟理事会也正式批准了该法案。
法案在经欧洲议会议长和欧洲理事会主席签署后,将于近日在欧盟官方公报上公布,公布20天后生效,并在生效两年后全面实施,风险级别最高的“禁止”条款预计率先于2024年底启动适用。
来源:法治日报
全文链接:
https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/en/pdf
2024年5月17日,美国科罗拉多州州长Jared Polis签署了“关于在与人工智能系统的互动中提供消费者保护的法案”(SB205),成为美国第一部对人工智能及其用例提出具体要求、真正长牙齿的综合性人工智能“监管立法”, 尽管是州层面的。
本质上,SB205是一部从防止算法歧视切入、针对AI场景的消费者保护法案,借鉴了欧盟人工智能法的不少思路。例如,和欧盟一样,法案也框定了一类“高风险人工智能系统”予以重点规制。所谓“高风险人工智能系统”,指的是用于做出对个人或群体具有显著影响的决策的系统,例如在教育、就业、金融服务、基本政府服务、医疗服务、住房、保险或法律服务等领域的决策。
针对“高风险人工智能系统”,SB205给系统开发者和部署者分别设定了相应的法律义务。作为部署者的小企业在有限的情况下可能会被豁免某些义务,但整体上这些义务是普遍适用的,没有企业营收或数据量的门槛,也不像一些州隐私法一样对医疗保健或金融机构等实体做出豁免。
有了第一个州级人工智能监管立法,是一个具有标志性意义的事件,其他那四十多个州的立法进程估计会加快,未来我们或许会看到更多州层面的人工智能法,科技行业不希望看到的“逐州监管”和立法碎片化可能最终难以避免,而这势必导致美国AI监管法律环境变得复杂和具有不确定性,跨多个州运营的公司,特别是中小公司不得不在不同的州实施不同的流程、系统和控制措施,提升合规成本。特别是,科罗拉多向欧盟人工智能法看齐的倾向,如果成为各州共同的参照,对美国人工智能产业发展和联邦统一立法也不是好事。
来源:东不压桥研究所
全文链接:Colorado General Assembly
https://leg.colorado.gov/bills/sb24-205
中俄建交75周年联合声明,涉及人工智能发展与信息安全治理
应中华人民共和国主席习近平邀请,俄罗斯联邦总统弗拉基米尔·普京于2024年5月16日至17日对中华人民共和国进行国事访问,双方发表《中华人民共和国和俄罗斯联邦在两国建交75周年之际关于深化新时代全面战略协作伙伴关系的联合声明》(以下简称《中俄联合声明》)。
《中俄联合声明》中中俄双方表示,双方高度重视人工智能问题,愿就人工智能的发展、安全和治理加强交流与合作。俄方欢迎中方提出《全球人工智能治理倡议》,中方欢迎俄方在人工智能领域提出治理准则。双方同意建立并用好定期磋商机制加强人工智能和开源技术合作,在国际平台上审议人工智能监管问题时协调立场,支持对方举办的人工智能相关国际会议。
双方重申在维护信息通信技术领域安全问题上的一致立场,同意协作应对包括与人工智能相关的各类网络安全风险。双方鼓励全球共同推动人工智能健康发展,共享人工智能红利,加强人工智能能力建设国际合作,妥善应对人工智能军事应用问题,支持在联合国、国际电信联盟、金砖国家、上海合作组织、国际标准化组织等机制平台开展人工智能交流合作。反对利用技术垄断、单边强制措施恶意阻挠他国人工智能发展、阻断全球人工智能供应链。
来源:中国外交部
全文链接:
https://www.fmprc.gov.cn/zyxw/202405/t20240516_11305860.shtml
5月7日,中华人民共和国和法兰西共和国在外交部网站联合发表了关于人工智能与全球治理的声明。这是在中法建交60周年之际,两国领导人在深化去年总统马克龙访华成果的基础上,进一步强化合作的体现。
两国元首强调了持续对话对于应对全球挑战的重要性,决定携手加强中法关系在全球治理中的推动作用。中国承诺积极参与2023年新全球融资契约峰会的后续活动,并仔细审议《人类与地球巴黎契约》的内容。
基于此前的联合声明,两国在人工智能领域达成了一系列共识。它们认识到AI技术对发展与创新的关键价值,同时也关注伴随而来的挑战,因此一致认为推动AI的安全开发与适宜的国际治理是当务之急。两国致力于深入探讨AI治理模式,既要促进技术创新,也要保障个人数据与用户权利。
中法强调建立安全、可靠、可信的AI系统,秉持“智能向善”的原则,通过全面对话来挖掘AI的正面潜力并减少风险。双方支持联合国框架下的国际合作,旨在加强不同AI治理倡议间的协调与互补,如在联合国教科文组织《人工智能伦理问题建议书》指导下的工作。
两国元首指出,AI的机遇与挑战具有全球性质,强调在技术飞速演进中维护国际安全、稳定及尊重国家主权与基本权利,国际合作不可或缺。它们对国际社会在AI安全应用上的努力表示欢迎,中国将参与法国未来举办的人工智能峰会筹备工作,并邀请法国参加即将举行的世界人工智能大会及治理高级别会议。
此外,中法支持构建负责任的信息通信技术国家行为框架,并帮助发展中国家提升网络能力以应对AI相关的安全威胁。两国重申,AI发展需服务于公共利益,符合《联合国宪章》精神,要加强国际合作缩小数字鸿沟,特别是在可持续发展、环境保护、教育与健康等领域应用AI技术。
鉴于AI技术可能影响文化多样性,两国主张AI应促进包容性接入,尊重语言与文化的多样性。对于AI对就业市场的潜在影响,中法正审慎考虑,力求在利用技术优势的同时,妥善管理对劳动市场可能产生的风险。
来源:经济观察报
全文链接:中国外交部
https://www.mfa.gov.cn/zyxw/202405/t20240507_11293821.shtml
2024年5月23日,欧洲数据保护委员会(EDPB)发布调查报告称,尽管OpenAI为遵守“透明度原则”采取的措施有助于其聊天机器人ChatGPT减少错误输出,但该产品仍不足以完全符合欧盟的《通用数据保护条例》(GDPR)。
去年,在以意大利为首的欧盟成员国监管机构对通用AI服务提出担忧后,EDPB在2023年4月成立了ChatGPT特别工作组。该报告称,目前一些成员国的调查仍在进行中,但上述结论已是各国的“共识点”。
工作组经过调查认为,ChatGPT在合法性问题、公平性问题、透明度和信息义务以及数据准确性等方面仍不完全合规。
报告组表示,ChatGPT在使用网络抓取收集大量个人数据时,可能对人们的基本权利构成了“特殊风险”,因为其抓取的数据可能包括最敏感的个人数据,如健康信息等,这需要比一般个人数据更高的法律处理标准。因此,ChatGPT需要在个人数据处理的所有阶段都具备有效的法律基础,包括收集训练数据、数据预处理和训练等。
在公平性问题上,工作组认为,ChatGPT不应将企业的合规责任转移给用户,例如通过条款和条件规定用户对其输入的聊天内容负责。在透明度及信息义务方面,工作组认为,ChatGPT在使用网络抓取从公开来源收集个人数据,或与用户直接交互时,都应遵循GDPR的有关信息义务的相关规定。
而在数据准确性上,由于ChatGPT系统的内部工作原理涉及概率计算,目前的训练方法会导致模型可能输出偏差或编造出来的结果,但用户可能并未意识到这种情况。因此,工作组建议OpenAI向用户提供一个“明确的参考”,说明生成的文本“可能有偏见或被捏造”。
OpenAI也没有“坐以待毙”。根据工作组的报告,OpenAI在去年12月15日更新其“欧洲隐私政策”,并于2024年2月15日正式在爱尔兰设立了名为OpenAI Ireland Limited的实体。这一实体被指定为OpenAI在欧盟运营ChatGPT等服务的区域提供商。根据这一安排,OpenAI可以利用GDPR中的单一窗口机制(OSS),申请爱尔兰数据保护委员会(DPC)作为其主要监督机构。这意味着,从此,欧盟内部任何针对ChatGPT的投诉,都不会像去年一样由欧盟各成员国的DPA分散执法,爱尔兰DPC将集中处理OpenAI在欧盟的合规事务,提供具有一致性的监管框架和决策。不过,工作组称,这并不影响各成员国监督机构就今年2月15日之前的数据处理操作继续进行调查。
近日,英国数据保护监管机构(“ICO”)结束了对Snap人工智能聊天机器人My AI的调查,并表示对公司解决儿童隐私风险问题感到满意。ICO向业界发出一般性警告,要求评估人工智能产品推向市场前的风险。
去年,ICO对Snap公司进行了一项调查,涉及其生成式人工智能聊天机器人"My AI"存在的潜在隐私风险,特别是对13至17岁的Snapchat用户。据了解,Snap的AI聊天机器人由OpenAI的ChatGPT支持,公司表示已实施多项保护措施,包括指导编程和家长控制功能。ICO警告称,生成式人工智能的开发者应从一开始考虑数据保护,否则可能面临罚款等执法措施。
Snap表示已进行符合数据保护法的风险评估,并将继续监控产品推出及应对新风险。英国监管机构指出生成式人工智能仍是重点监管对象,并提供开发者相关法规指南。
虽未有正式立法,但欧盟通过基于风险的人工智能框架,其中包括对人工智能聊天机器人的透明度义务。ICO将在未来公布更多调查细节。
来源:站长之家