全球人工智能立法&监管月报|2024年6月刊

科技   2024-07-06 10:00   广东  

国内立法监管动态



工信部等四部门联合印发《国家人工智能产业综合标准化体系建设指南(2024版)》

工业和信息化部、中央网信办等四部门于2024年6月5日联合印发《国家人工智能产业综合标准化体系建设指南(2024版)》(下称《指南》),提出到2026年,我国标准与产业科技创新的联动水平持续提升,新制定国家标准和行业标准50项以上,引领人工智能产业高质量发展的标准体系加快形成。开展标准宣贯和实施推广的企业超过1000家,标准服务企业创新发展的成效更加凸显。参与制定国际标准20项以上,促进人工智能产业全球化发展。

根据《指南》,人工智能标准体系结构包括基础共性、基础支撑、关键技术、智能产品与服务、赋能新型工业化、行业应用、安全/治理等7个部分。其中,基础共性标准是人工智能的基础性、框架性、总体性标准。基础支撑标准主要规范数据、算力、算法等技术要求,为人工智能产业发展夯实技术底座。关键技术标准主要规范人工智能文本、语音、图像,以及人机混合增强智能、智能体、跨媒体智能、具身智能等的技术要求,推动人工智能技术创新和应用。

《指南》明确,建立健全人工智能领域标准化技术组织,统筹产学研用各方、产业链各环节优势力量,协同推进人工智能标准建设,共同构建先进适用的人工智能产业标准体系。鼓励标准化研究机构培养和引进标准化高端人才,加强面向标准化从业人员的专题培训。鼓励企业、高校、研究机构等将标准化人才纳入职业能力评价和激励范围,构建标准化人才梯队。


来源:经济参考报

政策全文:

https://www.gov.cn/zhengce/zhengceku/202407/content_6960720.htm 


国家药监局综合司关于印发药品监管人工智能典型应用场景清单的通知

为贯彻落实党中央、国务院关于开展“人工智能+”行动的决策部署,落实《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》《新一代人工智能发展规划》《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》《药品监管网络安全与信息化建设“十四五”规划》等工作要求,有效促进“人工智能+”行动在药品监管领域的实践探索,统筹推进人工智能场景创新,更好支撑高水平监管和高质量发展,国家药监局印发《药品监管人工智能典型应用场景清单》(以下简称《清单》)旨在推动人工智能技术在药品监管领域的研究探索。

《清单》列出了包括准入审批类(形式审查、辅助审评、批件整理),日常监管类(远程监管、现场监管、辅助抽检工作、辅助稽查办案、药物警戒、网络交易监管),服务公众类(业务办理及政策咨询、说明书适老化改造),辅助决策类(业务数据查询、数据分析与预测、工作方案研究、风险管理)在内的四类共 15 个具有引领示范性的、有发展潜力的、针对工作痛点的、需求较为迫切的应用场景。以促进人工智能与药品监管深度融合,规范和指导各级药品监管部门开展人工智能技术研究应用,引导资源聚焦,推动人工智能赋能药监系统;同时也为其他科研机构、技术公司和药品企业相关研究应用提供参考和指导。


来源:国家药品监督管理局


广东发布关于人工智能赋能千行百业若干措施的通知

广东省委、省政府高度重视人工智能产业发展,陆续出台《广东省新一代人工智能创新发展行动计划(2022-2025)年》《广东省人民政府关于加快建设通用人工智能产业创新引领地的实施意见》等政策文件,紧紧把握战略机遇,积极应对人工智能技术广泛应用带来的颠覆性变革。为贯彻落实党中央、国务院关于发展人工智能的决策部署和省委、省政府关于积极谋划应对人工智能技术广泛应用带来的颠覆性变革等有关要求,立足广东产业禀赋,扎实推进人工智能产业高质量发展,加速形成新质生产力,广东省工业和信息化厅在深入调研和广泛征求意见的基础上牵头制定了《广东省关于人工智能赋能千行百业若干措施的通知》(以下简称《若干措施》),并于2024年6月6日正式发布,旨在打造“人工智能+”广东方案,创造智能时代的经济新模式、生活新体验、治理新方式。

《若干措施》提出,总体目标为到2025年全省算力规模超过40EFLOPS,人工智能核心产业规模超过3000亿元。到2027年,全省人工智能产业底座进一步夯实,算力规模超过60EFLOPS,全国领先的算法体系和算力网络体系基本形成;智能终端产品供给丰富,在手机、计算机、家居、机器人等8大门类,打造100款以上大规模使用的智能终端产品,人工智能核心产业规模超过4400亿元;聚焦制造、教育、养老等领域,打造500个以上应用场景,各行各业劳动生产率显著提升。具体来说夯实人工智能产业底座、加快形成新质生产力方面,需要加大人工智能核心芯片器件供给、推进人工智能软件迭代升级、系统构建算法产业矩阵、系统构建算法产业矩阵。在构筑智能终端产品新高地,塑造广东品牌新形象方面,要提智做强高端装备、赋智壮大消费终端。在打造智能融合应用新引擎,形成经济增长新风口,要赋能实体经济新动力、赋能智慧民生新体验、赋能社会治理新效能、赋能数字消费新业态、赋能各行各业新领域。在保障措施方面,需要建立健全人工智能产业发展组织协调机制、多方参与加强政策供给、逐步建立产业标准体系、创新人才培育、强化创新示范应用、营造产业生态氛围以及加强国际交流。


来源:广东工信

政策全文:

https://www.gov.cn/zhengce/zhengceku/202407/content_6960720.htm


成都发布促进人工智能产业发展的政策措施事实细则

成都市经济和信息化局于2024年6月11日发布《成都市进一步促进人工智能产业高质量发展的若干政策措施实施细则》(以下简称《实施细则》)。《实施细则》从支持算法工具源头创新、支持算法创新转化、支持算法首试首用、支持建设创新应用平台、支持企业发展壮大、支持企业上市融资、支持企业集聚发展、支持高端要素聚集化、支持开展标准研制九个方面给出具体政策措施,推进政策高效落地,促进人工智能产业高质量发展。

具体来说,支持算法工具源头创新方面,鼓励研制人工智能开发框架、鼓励应用人工智能开发框架并鼓励围绕国产人工智能开发框架研制基础软硬件产品。在支持算法创新转化方面,支持开展核心算法研发以及支持开展行业大模型研发应用。支持算法首试首用方面,支持应用人工智能算法打造典型应用场景以及算法采购应用,并给予相关的采购奖励。支持建设创新应用平台方面,支持创建人工智能领域国家级科技创新平台以及公共算法服务平台并予以相关的补贴。支持企业集聚发展方面,按照园区人工智能业务收入规模万分之一的比例,给予其专业化运营机构相应的一次性支持。支持高端要素聚集化方面,支持建设人工智能数据集以及开展人工智能领军智荟行动。在支持开展标准研制方面,鼓励企业参与人工智能标准研制与场景建设标准研制,对主导制订国际、国家、行业标准的企业,分别给予不同程度的奖励。


来源及政策全文:成都市人民政府官网
https://www.chengdu.gov.cn/cdsrmzf/c172197/2024-06/20/content_5cae00013a6346f8ba3d7c6ce28c92bc.shtml


山东印发关于加快大模型产业高质量发展指导意见

山东省工业和信息化厅于2024614日发布《关于加快大模型产业高质量发展的指导意见》,希望加快突破一批前瞻性、原创性、引领性大模型关键技术,打造具有一定国际影响力的基础级大模型,在重点领域和关键环节培育一批覆盖范围广、产品能效高的行业级大模型、场景级大模型。

山东将推动高校院所、企业组建大模型协同创新联合体,联合攻关分布式高效深度学习框架、模型轻量化、个性化微调等关键技术,并开展大模型重点技术揭榜挂帅。加强大模型标准体系和评测开放服务平台建设,打造大模型开源社区,搭建大模型产业公共服务平台,加快大模型共性技术研发与成果转化。支持大模型企业主导或参与大模型标准制定,加快推出具有自主知识产权的核心技术、创新产品,增强大模型企业创新能效。鼓励行业企业联合大模型企业主动布局特色优势行业,形成一批行业级大模型产品,助力场景级大模型产品研发。

数据与算力是大模型底层基础设施中的两大基石。瞄准强化高质量数据供给,山东将推动国家产业数据流通服务平台、工业数据资产登记城市节点落地建设,加快形成重点行业产业数据仓”“数据空间,促进高质量与高可用数据汇聚、流通、应用,并探索打造数据训练基地,持续扩展多模态数据来源。支持济南、青岛等市依托人工智能创新发展试验区、创新应用先导区,构建多元异构的千卡级别、万卡级别智能算力集群,并持续完善全省“1+3+N+X”一体化工业大数据中心体系,加快黄河工业算力调度服务平台、山东算网等重点平台建设,推动异构算力环境统一管理、统一运营,并加大省数字经济发展专项基金倾斜力度,探索通过创新券等形式支持大模型产品研发推广。


来源:大众日报

政策全文:

http://www.shandong.gov.cn/jpaas-jpolicy-web-server/front/info/detail?iid=7d291ad7338746dcbf9a99621e516b22 


 国家互联网信息办公室发布第六批深度合成服务算法备案信息

根据《互联网信息服务深度合成管理规定》,国家网信办于2024612日公开发布第六批境内深度合成服务算法备案信息,具体信息可通过互联网信息服务算法备案系统(https://beian.cac.gov.cn)进行查询。本次共有492款算法完成备案,包括喜马拉雅语音识别算法、支付宝图像生成算法、有道云笔记内容生成算法以及三星智能视觉服务算法等。

依据《互联网信息服务深度合成管理规定》第十九条规定,具有舆论属性或者社会动员能力的深度合成服务提供者,应当按照《互联网信息服务算法推荐管理规定》履行备案和变更、注销备案手续。深度合成服务技术支持者应当参照履行备案和变更、注销备案手续。请尚未履行备案手续的深度合成服务提供者和技术支持者尽快申请备案。


来源:中国网信办


北京互联网法院对北京首例“AI换脸”软件侵权案件宣判

620日,北京互联网法院一审开庭宣判了两起北京市首例“AI换脸软件侵权案件,认定使用他人视频换脸后制作模板再提供换脸服务的网络服务提供者侵害了他人的个人信息权益。

两案原告均系国风短视频模特,在全网拥有众多粉丝。被告是一款“换脸”APP的运营者。原告主张,在未经其授权同意的情况下,被告使用原告的出镜视频制作换脸模板,并上传至涉案换脸APP中,提供给用户付费使用借此牟利。原告认为,被告的行为侵害了原告的肖像权。同时,被告未经原告同意擅自上传和使用了具有原告肖像信息的视频,这一行为系被告非法获取原告人脸信息并篡改,将原告的人脸通过AI技术手段抠除并替换成第三方的脸,再将技术处理后的视频用作付费模板供涉案APP的用户使用并以此获利,侵害了原告的个人信息权益。原告据此要求被告赔礼道歉,并赔偿精神损失和经济损失。

法院审理后认为:第一,原告涉案出镜视频中有包括原告人脸信息的个人信息。原告涉案出镜视频动态呈现了原告的面部特征等个体化特征,基于数字技术,这些个人特征可以以数据形式呈现,符合《中华人民共和国个人信息保护法》规定的与已识别或可识别的自然人有关的信息的定义。第二,被告实施了处理原告个人信息的行为。被告应是承担个人信息处理责任的主体。即使被告实际使用了案外公司的技术服务,被告是个人信息处理的委托人,决定了信息处理的方式、范围,应就个人信息处理行为承担责任。其次,涉案换脸行为属于个人信息处理行为。换脸不仅是简单的替换,而是需要将新的静态图片中的特征与原视频的部分面部特征、表情等通过算法进行融合,使得替换后的模板视频表现自然流畅。上述过程,涉及对原告个人信息的收集、使用、分析等,因此通过换脸形成换脸模板视频的过程,属于对原告个人信息的处理。第三,被告的行为侵害了原告的个人信息权益。被告获取包含原告人脸信息的视频,利用深度合成这一新兴技术分析、修改后,进行商业化利用,可能对原告个人权益产生重大影响,应依法征得原告同意。被告无证据证明其经过原告同意,因此构成对原告个人信息权益的侵害。法院判决被告向原告赔礼道歉,赔偿精神损失及经济损失。目前案件尚在上诉期,一审判决未生效。


来源:北京互联网法院


北京互联网法院开庭审理首例AI绘画模型著作权侵权案

随着AI技术发展和新商业模式的应用,AI绘画逐渐走入公众视野——用户只用输入关键词和相应指令,AI绘画软件就能自动生成精美的手绘风格画作。聪明的AI离不开海量数据作为训练素材,供机器进行深度学习,在采集、复制数据和将数据作为训练语料投喂”AI模型的过程中,相应的著作权问题广受关注。620日,北京互联网法院在线开庭审理了四起画师起诉AI绘画软件开发运营者的著作权侵权案件。

四起案件的原告均为插画师,同时也是某内容分享平台的注册用户,自注册该平台账号以来,长期发布其创作的绘画作品。四起案件的原告发现,有用户在该平台上发布了带有明显模仿原告作品痕迹的图片,这些用户均表示这些图片系通过某AI绘画软件创作。原告进一步查询获知,涉案某内容分享平台上线了该AI绘画软件。此外,涉案AI绘画软件在该分享平台上亦有官方主页,并自称某内容分享平台(该平台名字)AI”。原告认为,三被告未经原告允许,将原告作品用于训练AI模型并应用于商业用途,已经远超合理使用范畴,共同对原告权益造成严重侵害。被告三辩称原告主张并无证据支撑并且被告三客观上并未向被告一、二提供本案系争的美术作品,亦没有实施涉案争议行为,不论从何种角度,被告三均不应承担任何法律责任,请求法院驳回原告全部诉讼请求。

原告是否享有主张作品的著作权?被告三是否是适格被告?被诉侵权行为是否存在,是否构成侵权或合理使用?如构成侵权,侵权的内容如何确定?侵权责任又应如何承担?庭审中,诉辩双方围绕上述争议焦点进行了举证质证和法庭辩论。原告申请技术辅助人员出庭,就AI大模型训练相关技术问题进行了说明。目前,该案正在进一步审理中。


来源:北京互联网法院


境外立法监管动态


日本政府综合创新战略推动AI立法

日本内阁2024年6月4日通过了囊括下一财年预算重点事项的 “统合创新战略2024”,该战略提出了三项强化措施,即关键技术相关的综合性战略、在全球视角下加强合作、提升AI领域竞争力并确保安全安心。该战略将推动制定AI领域的相关法律法规,在确保安全的基础上加快人工智能(AI)的实际应用。

新财年“综合创新战略”指出,在日本国内劳动力不足日益严峻的背景下,依靠AI和机器人技术实现自动化和节省劳动力是当务之急,以此预防和应对灾害也是紧迫课题。在这些方面,科学技术的作用正变得越来越重要,因此要加快AI和机器人技术的实际应用。针对伴随AI发展出现的虚假信息扩散和犯罪等问题,该战略明确将在日本政府的AI战略会议下新设专家咨询小组,以讨论如何规范可能助长歧视和偏见以及被滥用的AI。战略指出,要推动相关技术研发,加强对AI生成内容的核实,防止由AI生成的虚假信息在网络上扩散等。

除了AI,“综合创新战略”还强调量子技术、生物技术、材料、半导体、6G等技术对日本经济和社会发展的重要性,要通过跨领域技术融合促进研发和产业化,并大力支持这些领域的人才培养。日本政府将科技和创新定位为国家经济发展战略的重要支柱,从2013财年起每年制定“科技创新综合战略”。从2018财年起,日本政府作出调整,开始制定基础研究与社会应用一体化的年度“综合创新战略”


来源:新华网


欧盟EDPS正式发布首份生成式AI数据合规指南

2024年6月3日,欧洲数据保护监督机构(EDPS)发布关于生成式人工智能的数据合规指南,该指南旨在为欧盟机构、部门、办公室和机构(EUIs)在使用生成性人工智能系统处理个人数据时提供实际操作建议和指示,以帮助其遵守《欧盟2018/1725号条例》中的数据保护义务。指南涵盖尽可能多的情境和应用,不规定具体技术措施,而是强调应遵守的数据保护一般原则。

主要内容包括:1. 生成式人工智能的有关定义;2.欧盟机构能否使用生成式人工智能;3.如何确定生成式人工智能系统是否涉及个人数据处理;4.数据保护官(DPO)的角色;5.何时应进行数据保护影响评估(DPIA);6.设计、开发和验证生成性人工智能系统时个人数据处理的合法性;7.如何确保数据最小化原则;8.生成式人工智能系统是否要尊重数据准确性原则;9.如何告知个人关于欧盟机构使用生成式人工智能系统处理个人数据的信息;10.如何理解关于EUDPR第24条涉及的自动化决策;11.如何确保公平处理并避免偏见;12. 如何行使个人权利;13.数据安全。

总的来说,这份指南为欧盟机构负责任地使用生成性人工智能系统提供了重要参考,指南重点在于数据最小化、数据准确性和数据安全,强调了透明和问责和在人工智能全生命周期内保护个人权利的重要性。

但必须注意的是,EDPS发布的指南是其作为数据保护监督机构的职责之一,而非其在《人工智能法》下的新AI监督机构角色,该指南不影响《人工智能法》的规定,不具有法律效力。


来源:上海市人工智能与社会发展研究会

政策全文:

https://www.edps.europa.eu/data-protection/our-work/publications/guidelines/2024-06-03-first-edps-orientations-euis-using-generative-ai_en 


 香港发布《人工智能(AI):个人资料保障模范框架》

6月11日,香港个人资料私隐专员公署发布《人工智能 (AI):个人资料保障模范框架》(以下简称“《模范框架》”)。《模范框架》涵盖4大范畴,具体包括:制订AI策略及管治架构;进行风险评估及人为监督;实行AI模型的定制与AI系统的实施及管理;以及促进与持份者的沟通及交流。个人资料私隐专员钟丽玲12日向媒体表示,香港企业使用AI呈现上升的趋势,希望《框架》为机构使用人工智能系统时提供指引,持续监督AI系统,降低个人资料外泄的风险,特别是风险高的环节,应加强人为监督。

据悉,《模范框架》是亚太区首个在人工智能领域针对保障个人资料隐私制定的指引性框架。在第一部分《AI策略及管治》中,《模范框架》指出,AI策略可包含:界定AI系统在机构的科技生态系统中提供的功能、参考AI道德原则,制定特定适用于机构在采购、实施及使用AI方案方面的道德原则、列明AI系统在机构中不可接受的用途等等。针对风险因素,《模范框架》也给出了较为细化的指导。其中包括识别和评估AI系统可能带来的各种风险,采取措施减少AI系统带来的隐私风险。此外《模范框架》指出,对于AI方案需要以风险为本的方式进行人工监督。《模范框架》建议,在决定人工监督的程度时,需要考虑AI系统的风险程度,若是高风险AI系统,即可能对个人或群体造成严重及长期的损害、输出结果可能影响到个体的基本权利和自由,包括财务损失、身体伤害、歧视、个人资料控制权的丧失、自主权的缺乏、心理伤害等的系统,则应采用“人在环中”(human-in-the-loop)模式,在此模式中,人类在决策过程中保留控制权,以防止或减少AI出错或作出不当的决定。高风险AI系统包括用于医疗诊断、信用评估、工作或求职评估等对个人或社会有重大影响的领域。若是低风险AI系统,则可以采用“人在环外”(human-out-of-the-loop)模式,在此模式中,AI系统在没有人为介入的情况下作出决定,以实现完全自动化的决策过程。若这两者都不适用,则可以使用适中风险AI系统,例如当风险程度不可忽视或“人在环中”方式不符合成本效益或不可行时,可以采用“人为管控”(human-in-command)模式。在此模式中,人类决策者利用AI系统的输出结果监控其运作,并在需要时介入。


来源:隐私护卫队

政策全文:

https://www.pcpd.org.hk/tc_chi/resources_centre/publications/files/ai_protection_framework.pdf 


OECD发布题为《人工智能治理》的研究报告

2024年6月13日,经济合作与发展组织(OECD)发布了一份题为《人工智能治理》的研究报告。首先,报告概述了人工智能如何提高决策和服务交付的生产力,即通过使用大量数据获得精细洞察来提高决策效率,同时通过自动化复杂但重复的行政流程来提高效率。其次,报告详细说明人工智能可以通过高质量的互动和更及时、更有针对性的公共服务援助来提高响应能力。第三,报告认为人工智能可以通过数据分析和机器学习技术来提高问责制,这些技术可用于检测违规行为和可疑模式。在指出人工智能的潜在好处时,该报告引用了2024 年 5 月更新的《经合组织人工智能原则》,概述了尊重法治、透明度和问责制等原则。在确保公共部门一致、可信地开发、部署和使用人工智能方面,该报告概述了以下步骤:一、通过人工智能的战略指导、明确目标和指导原则提供全政府方法;二、在机构内嵌入参与机制,以增加公众对公共部门人工智能的参与度;三、建立强有力的数据治理,以实现政府数据的获取和共享;四、通过促进公众监督的机制确保公共部门使用的人工智能系统的可靠性;五、加强问责,确保算法决策的透明度、可解释性和可追溯性。此外,该报告还提供了支持政府公共政策中人工智能发展的框架。总体来说,OECD正在支持各国政府努力在公共部门安全、可靠、负责和值得信赖地使用人工智能,加强各部门之间的合作并应对人工智能领域的共同挑战。


来源:DataGuidance

报告全文:

https://www.oecd-ilibrary.org/docserver/26324bc2-en.pdf?expires=1719497197&id=id&accname=guest&checksum=0889933D4D911D0EC312C3AD31645D61 


全球三大唱片公司起诉两家AI公司侵犯版权

2024年6月24日,美国唱片业协会代表索尼音乐娱乐、华纳唱片集团、环球音乐集团等起诉了Suno和Udio两家AI音乐初创公司,原因是这两家公司在未经授权的情况下非法使用了大量原告公司受版权保护的音乐作品,用于AI大模型训练。此举涉嫌侵犯原告公司的音乐版权。

环球音乐集团(UMG)、索尼音乐集团和华纳音乐集团在针对Suno公司和Udio发布Uncharted Labs公司的诉讼材料中称,两家公司未经许可使用大量歌曲进行人工智能学习,侵犯了唱片公司的版权。原告还展示了多个AI工具创作的歌曲与真实的人类创作的歌曲几乎一模一样的例子。AI歌曲生成应用Suno和Udio允许用户通过输入流派、歌词和所用乐器的种类等描述,来生成完整的歌曲。原告方指控Suno和Udio使用从互联网上抓取的受版权保护的作品来训练AI模型,称这些公司“大规模且持续侵权”“大量复制唱片公司的录音并输入其AI模型”,违反了版权保护领域的相关法律。代表UMG、华纳音乐和索尼音乐的美国唱片业协会(RIAA)依据美国《著作权法》等要求被告对每部侵权作品赔偿15万美元,照此计算赔偿总额可能高达数十亿美元。虽然Suno和Udio均未公开披露其训练数据,但唱片公司认为,其音乐生成工具是根据什么进行训练的“显而易见”,而且这两家AI公司都“故意回避”其中的具体行为。目前,针对Suno的诉讼正在波士顿联邦法院进行,而针对Udio的诉讼正在纽约地区法院进行。


来源:经济参考网


 Meta在欧盟暂停针对Facebook、Instagram的人工智能训练计划

2024年6月14日,Meta表示根据爱尔兰数据保护委员会(DPC)的要求,其将推迟使用Facebook和欧盟Instagram上用户共享的公共数据来训练公司大型语言模型(LLM)的计划。争论焦点是Meta能否在没有征得用户明确同意的情况下仅仅是依赖“合法利益”的法律基础来处理用户个人数据数据训练其人工智能(AI)模型。此前Meta表示,用户可以通过提交申请来要求公司不使用他们的数据。Meta公司已经在美国等其他市场利用用户生成的内容和数据来训练其人工智能系统,并表示如果如果不能根据本地收集的信息(涵盖不同的语言、地理和文化背景)训练其人工智能模型,就无法将Meta AI引入欧洲,并指出这样做的话客户只会获得“二流体验”。欧盟数据监管机构认为,Meta的法律基础不符合GDPR的规定。

与此同时,奥地利非营利组织欧洲数字权利中心(简称noyb)在11个欧洲国家提起诉讼,并打算提起更多诉讼以阻止Meta推进其人工智能计划。Noyb表示,Meta对其暂停原因给出的解释是源自欧盟官员的反对,但是Noyb警告欧盟用户Meta的隐私政策目前尚未完全反映其对人工智能计划的暂停。Noyb主席表示还将继续密切关注此事,Noyb提起的诉讼仍在进行,需要法院对此作出裁定。


来源:Ars Technica、The Hacker News


 欧洲汽车巨头使用用户车辆与驾驶数据来训练AI模型发生数据泄露

根据Cybernews网站于2024年6月14日发布的消息称,比荷卢经济联盟(Benelux)最大的汽车经销商Van Mossel 和多家公司使用了一家不知名的数据分析公司的服务来训练人工智能模型,结果将客户数据泄露到了互联网上。

2024年2月1 日,Cybernews 研究团队在数据收集和分析公司 Rawdamental 的系统中发现了一个令人担忧的错误配置,导致个人数据泄露。尽管 Rawdamental 没有在荷兰公司登记册中找到,但其服务已被众多荷兰公司使用。此次发现的安全事件影响了可能使用数据收集服务的 10 家公司的用户,其中包括拥有近 7000 名员工的跨国汽车经销商 (Van Mossel)、软件公司 (Simpul.nl 和 Divtag.nl)、摩托车零部件市场 ( Motorparts-online.com)、营销机构 (InovaMedia)、烟花零售商 ( Vuurwerkbestel.nl)、室内装饰零售商 -(Oletti.nl)、圣诞礼物服务 (Kerstpakkettenexpress.nl 和 kerstcomplimenten.nl)以及荷兰赛车迷俱乐部 (Ttassen-fanbase.com)。除了明显的网络安全漏洞导致数据泄露,并为威胁行为者提供了一个数据库外,另一个主要问题是公司对用户数据的匿名化处理不力。对于像 Rawdamental 这样的服务公司来说,匿名化用户数据至关重要。Cybernews 的安全研究员 Nazarovas 表示,尽管Rawdamental 有意对用户数据进行匿名处理,但调查显示,他们未能预见到所有可能出现的情况。


来源:Cybernews、FreeBuf.Com


  OpenAI宣布停止不支持国家API服务

6月25日,全球知名的人工智能公司OpenAI宣布,为了维护服务质量和安全性,将采取额外措施来限制来自当前不支持的国家和地区的API流量。

这并非OpenAI近期在安全方面唯一的动作,2024年以来,OpenAI在安全方面有几项重要的更新和变化,并收紧了API使用的相关政策。2024年2月,OpenAI在官网上发布了“阻止国家相关威胁行为者对人工智能的恶意使用”一文,表示阻止并限制了来自中国、朝鲜、伊朗、俄罗斯等国家的一些用户的使用。2024年5月,OpenAI成立了一个人工智能安全委员会,该委员会由董事会成员布雷特·泰勒(主席)、亚当·德安杰洛、妮可·塞利格曼和首席执行官萨姆·奥特曼领导。该委员会的职责是向董事会提供有关OpenAI项目和运营的关键安全决策的建议。委员会的首要任务是评估和进一步发展OpenAI的安全流程和保障措施,并在90天内提出建议。2024年6月,OpenAI更新了其API使用政策,重点在于加强数据隐私和安全、明确开发者责任、禁止某些高风险活动以及防止误导和学术不端行为。新政策要求开发者不得未经法律许可收集或处理个人数据,不得使用生物识别系统进行身份识别或监控。此外开发者必须确保AI系统在与用户互动时透明,并且不得构建对未成年人不适当的内容。

OpenAI宣布停止不支持国家API的邮件并非仅针对中国,而是一次大范围的针对开发人员的调整,不过必须注意的是,OpenAI作为一家美国公司,也被纳入到了美国人工智能战略中的一部分。2024年4月,美国国土安全部宣布成立AI安全委员会,以指导美国关键基础设施安全地使用AI,OpenAI的CEO奥特曼为该委员会的22名成员之一。2024年5月,美国众议院的外交事务部委员会以压倒性多数,通过了一项限制AI出口的法案。法案全称为《加强海外关键出口国家框架法案》,旨在让美国商务部更容易对AI模型实施出口管制,以及限制美国与外国人合作开发威胁国家安全的AI系统。随着中美在人工智能领域博弈的进一步升级,未来OpenAI不仅重新支持中国的API服务的可能性不大,甚至可能会进一步限制来自中国的访问和使用。


来源:上海市人工智能与社会发展研究会



END



全球人工智能立法&监管月报|2024年5月刊



享法互联网JoyLegal
懂法,更懂办法!享法,还有想法!
 最新文章