扫码订阅《中国信息安全》
邮发代号 2-786
征订热线:010-82341063
人工智能监管的全球维度
当前,人工智能监管往往以“软法”形式存在,其中《布莱切利宣言》较具有代表性。2023年11月1日至2日,首届全球人工智能安全峰会在英国举行,峰会发布《布莱切利宣言》。该宣言将前沿AI风险的监管重点分为三个方面。一是识别共同关注的AI安全与风险,构建以科学和证据为基础的风险识别方法与机制,拓展关于AI对人类社会深远影响的思考与认知范围。二是不同国家应根据不同风险级别制定相应监管制度以确保安全与发展,鼓励适当情况下的国际合作,同时理解不同国家可能因国情和法律框架不同而采取不同的监管制度与方法。三是除了提高私人机构在前沿AI开发方面的透明度要求外,还应制定合理的评估标准,推广安全测试工具,促进公共部门提升相关能力,鼓励科学研究。
人工智能监管的区域维度
2024年8月正式生效的欧盟《人工智能法案》,是全球第一部针对人工智能衍生风险而制定的监管法案,有助于提升欧盟在人工智能全球治理进程中的话语权。该法案根据人工智能对健康、安全和自然人基本权利存在的潜在风险,对其进行风险分类并设置不同法律义务与责任,主要内容如下:(1)不可接受的风险,禁止任何企业或个人等市场主体进入该领域;(2)高风险,允许相关主体在履行事前评估等义务后,进入市场或使用,同时要求事中、事后持续监测;(3)有限风险,无须取得特殊牌照、认证或履行报告、记录等义务,但应遵循透明度原则,允许合理的可追溯性和可解释性;(4)低风险或最低风险,相关主体可自行决定是否进入市场和使用。对于生成式人工智能,由于其没有特定目的并且可应用于不同场景,故不能基于一般操作模式对其进行风险分级,而应当按照开发或使用生成式人工智能的预期目的和具体应用领域进行区分。需要说明的是,该法案要在人工智能实践中予以落实和执行,仍存在技术等方面的不确定性。
人工智能监管的国家维度
美国以行业管理标准为主,辅之以必要的部门立法。自2016年以来,美国不断加大监管人工智能的力度,相继通过多部相关监管法律制度和指南。2020年11月,美国正式发布《人工智能应用监管指南》,提出美国联邦机构在制定人工智能应用立法时,应当考量的十项基本原则,包括风险评估与管理、公平和非歧视及公开与透明等要求。在《国家人工智能倡议法案》的推动下,美国成立国家人工智能资源研究工作小组,负责调查美国发展AI研究网络、基础设施的可及性和可供咨询特征,并在2023年1月发布《加强和民主化美国人工智能创新生态系统:国家人工智能研究资源实施计划》,旨在构建一个更加普遍、系统的AI研究网络基础设施体系。其目标包括:鼓励创新,增加人才供给多样性,提高管理能力,确保人工智能应用的安全、可控、可信。2023年1月,美国国家标准与技术研究院公布《人工智能风险管理框架》,用于指导组织机构在开发和部署人工智能系统时降低安全风险,避免产生偏见和其他负面后果,提高人工智能可信度,保护公民的公平自由权利。
完善我国人工智能监管体系
妥善处理人工智能创新、发展与安全之间的关系,是国际社会监管人工智能的重要考量。当前,须在总体国家安全观的指导下,完善我国人工智能监管体系。
(来源:中国社会科学网)
分享网络安全知识 强化网络安全意识
欢迎关注《中国信息安全》杂志官方抖音号
《中国信息安全》杂志倾力推荐
“企业成长计划”
点击下图 了解详情