在上一期文章中,我们讨论了“人工智能引导自杀和他杀”的潜在可能性,并强调了法律监管在AI发展过程中的重要性。那么,全球在AI安全和监管方面究竟做得如何呢?
实际上,人工智能的监管几乎是在最近几年才逐步提上议程的。
从2017年开始,AI监管逐步起步。加拿大率先发布了国家级人工智能发展政策。同年,中国国务院发布了《新一代人工智能发展规划》,为中国AI发展制定了战略目标,并首次提出建立人工智能安全监管和评估体系的必要性。这一规划不仅展现了技术发展的野心,也为后续的AI安全监管奠定了基础。
随后,法国、印度、德国等国家也陆续发布各自的国家人工智能发展计划,同时开始将AI安全纳入议程。
2018年,两个关键的法律文件颁布,对今天生产AI产品的公司们产生了深远影响。一个是欧盟的《通用数据保护条例》(GDPR),另一个是美国的《加州消费者隐私法案》(CCPA)。两部法案对AI工具获取、存储和处理用户数据的方式进行了明确规定,成为了保护用户隐私的开端,也为后续的AI安全法律提供了模板。
2021年,欧盟率先提出了《人工智能法案》(Artificial Intelligence Act)**,**这是一部全球范围内率先尝试从风险角度全面规范AI系统的法律。同年,中国发布了由瑞莱智慧、华为、百度等企业和国家工业信息安全发展研究中心联合编写的《人工智能安全测评白皮书(2021)》,深入探讨了人工智能的安全目标和实际可行的保障手段。
2023年,英国主办了全球AI安全峰会,聚焦人工智能带来的安全威胁与解决方案。同年,美国也在拜登政府的推动下,开始针对人工智能发展的潜在风险加强关注。这一时期,AI安全的讨论逐渐从区域性议题转向全球化协作。
2024年是人工智能监管逐渐走向全球化和标准化的重要一年。5月,英国和韩国联合举办了AI首尔峰会,吸引了60多个国家参与。在此次峰会上,各国领导签署了关于建立全球AI治理标准和链接AI安全研究中心的合作意向,标志着人工智能安全合作进入新阶段。12月,欧盟的《人工智能法案》正式生效,开启了AI监管的法律化进程。
从过去7年的进展来看,全球在人工智能治理方面已经取得了显著突破,AI安全相关的法律和政策也将进一步向更多国家扩展。你可能会注意到,中国、英国、美国、欧盟和韩国在这些进程中频频出现。那么,这些国家的AI监管究竟有什么特色?又有怎样的独特发展路径?请点个关注,我们下期接着聊!
往期内容