摘要:人工智能是新一轮科技革命和产业变革的核心驱动力。负责任的人工智能研究如何以安全、可靠和合乎道德的方式研发和使用人工智能技术,对促进人工智能健康发展具有重要意义。本文对负责任人工智能的概念内涵进行界定,构建了“全过程—多主体—多层次—多机制”的治理体系分析框架。基于此框架,分析了全球主要国家推进负责任人工智能治理的政策体系,并聚焦于美国人工智能政策措施,分析和总结了美国发展负责任人工智能的重点举措和具体实践。研究表明,以美国为代表的发达国家高度重视负责任人工智能,政府、行业组织、企业和研发机构、社会公众等主体共同参与、分工协调、协同共治,综合运用政策法规、伦理准则、标准体系等多层次治理工具,建立并完善决策与咨询、统筹协调、信息流通和共享,以及监测监督等多方位治理机制,确保实现人工智能技术在全周期的安全、可靠、可控。最后,从加强负责任人工智能的战略和政策指引、健全基于创新全过程的监管体系、增强社会团体和公众的参与度、加强国际合作等方面,提出推进我国负责任人工智能治理体系建设的建议。
关键词:负责任人工智能;治理;政策体系;战略规划
负责任研究与创新是国际上科技发展与治理的重要理念,已成为世界多国的共识。负责任AI作为负责任研究与创新的重要内容之一,也是一个新兴的研究领域,目前学术界和产业界针对其概念和内涵,还没有统一的界定。美国国防部发布的《人工智能道德原则》中认为负责任AI应该包括负责任、公平、可追溯、可靠、可管理。其中,对负责任的定义为国防部人员在开发、部署和使用AI能力时行使适当水平的判断和关注,同时对其负有责任。世界经济论坛认为负责任AI是AI治理的新兴领域,涵盖了在开发和部署有益的AI中涉及的伦理、道德和法律价值观,以及解决AI为个人和社会提供利益的相关挑战的治理框架。微软公司认为负责任AI是一种以安全、可信和道德的方式开发、评估和部署AI系统的方法,AI系统是开发和部署人员的决策产物,负责任AI可以主动引导这些系统或互动的决策走向更有益和公平的结果。
从广义来讲,负责任AI是一种以安全、可靠和合乎道德的方式研发和使用AI;应构建一个AI治理框架,规定一个组织在研发、部署、应用和评估AI算法、程序和系统过程中,所应该采取的伦理和法律准则。负责任AI要体现包容性、公平性、以人为本、透明和可解释性、安全性、隐私和可被问责性等。本文认为,负责任AI是一种全面的策略,是将伦理道德、法规约束和社会责任贯穿于AI的全周期——从设计、研发、部署到应用,其目的是保障AI技术正面影响最大化,同时有效防范和减轻潜在的负面后果,有益于经济社会发展又兼顾公平、安全、伦理的AI生态环境构建。该理念强调在研发至应用的每一步骤中,均需牢固树立安全意识与责任意识,确保技术进展与社会价值观、道德标尺及法律规定相契合。实现负责任AI依赖于构建一个多维协作式的治理框架,需要政府、行业组织、企业、社会公众等利益相关方的合作,形成一个全面参与、共治共享的生态体系。
治理是多元主体共同参与公共事务的一种方式。全球治理委员会将治理界定为各类公私主体合作管理共同事务的多元化途径,旨在调和利益冲突并促进行动协同,涵盖正式制度与非正式安排综合体,涉及主体、对象与方法的全面协作,需公共机构、非营利组织、私营部门及公众等多方面共同参与并发挥关键作用。AI是当前国际竞争的焦点,影响到人类生产和生活的方方面面,AI领域的治理迫切需要各方的共同参与。中国信息通信研究院与中国AI产业发展联盟倡导构建一个多维度的AI治理体系,该体系由政府、行业组织、企业及公众等多元主体协同构成,旨在形成一个紧密合作、相互支撑的治理网络。负责任AI治理是AI治理的重要方面。本文从负责任AI的基本概念和内涵出发,构建了负责任AI的“全过程—多主体—多层次—多机制”的治理体系分析框架(图1)。
从治理对象看,负责任AI应涵盖AI研发和使用的全过程,包括从构思设计到研发实施,再到部署和应用的全生命周期。从治理主体看,政府、行业组织、企业和研究机构、社会公众等利益相关方协同共治,政府是规制的主导者与捍卫者,行业组织是促进协作的协调者,企业和研究机构是研发和应用的实践者,社会公众是监督者和反馈者,多主体共同参与治理。从治理工具看,各主体通过综合运用多层次的治理手段,包括但不限于制定战略规划、建立行业规范和行为准则、明确伦理原则、建设标准体系等,引导并规范AI创新发展。从治理机制看,需要建立并完善决策和咨询机制、统筹和协调机制、信息流通和共享机制以及监测监督和评价机制等,促进各主体分工协作、紧密配合,最终实现AI技术在全周期安全可靠可控,推动经济、社会和生态可持续发展,在惠及人类的同时,有效防范和减轻负面效应和风险。基于此框架,本文通过政策分析的方式,系统梳理了主要国家在推动责任AI治理方面的政策措施和主要做法。总体来看,初步形成了由政府部门、行业组织、企业和研发机构、社会公众共同参与、分工协调、协同共治的治理体系,不断丰富和发展治理工具,完善治理机制。
1)政府层面:建立负责任AI的战略、法律框架与监管机制
国家在负责任AI治理中发挥着举足轻重的作用。世界主要国家纷纷出台AI战略蓝图,如新加坡的《国家人工智能战略》、美国的《国家人工智能倡议法案》和《国家人工智能研究与发展战略计划》、英国的《国家人工智能战略》及日本的《人工智能战略2022》。这些战略、法案不仅界定了AI研发的重点领域,还强调了安全、军民融合、生态系统投资、治理创新、伦理考量及数据保护等核心要素。
在国家层面,各国正密集制定AI治理政策,旨在明确技术应用边界、确立治理准则、强化数据安全与隐私保护,为AI技术的合理部署提供清晰的指引和规范。其中,日本的《以人为中心的人工智能社会原则》、欧盟的《可信赖人工智能伦理准则》以及OECD的《人工智能原则》,分别强调以人为本、技术的可靠、透明与公正性,以及对人权的尊重。美国政府尤其活跃,发布了一系列文件,包括《美国在AI领域的领导地位》《负责任的人工智能战略》《美国数据隐私和保护法》《人工智能权利法案蓝图》以及关于AI安全与可信度的行政命令,旨在加速推进AI的标准化进程,确保技术的可靠性,并推动AI的负责任发展。美国成立AI促进委员会,监测管理AI风险并推动AI发展。同时,德国、欧盟、英国等,通过更新或提交的策略、法案和风险管理框架,以及创新监管方法,进一步强化了监管机构的角色,确保AI技术的伦理运用与公平性,为监管机构提供了应对AI挑战与机遇的协作框架。
2)行业层面:制定行业规范、推动标准化、建立产业联盟
全球范围内的行业组织,如行业协会、标准化团体和产业联盟,作为推动负责任AI发展的核心力量,通过行使服务、沟通、自律和协调等关键职能,共同塑造AI领域的未来。它们不仅制定规范与标准以确保技术使用的规范性和一致性,还致力于推动创新前沿,强化国际合作,提升各国在全球AI治理中的话语权。例如,美国计算机协会(Association for Computing Machinery,ACM)与美国AI协会(Association for the Advancement of Artificial Intelligence,AAAI)分别提出了道德与职业行为准则及伦理与多样性准则,为行业树立了高标准的道德框架。英国技术贸易协会(UK's technology trade association,techUK)强调了在数字化进程中融入透明度、问责制及可解释性等数字伦理原则的重要性,引导科技向善。
与此同时,产业联盟通过搭建产业协作平台,促进产业链上下游企业之间的紧密合作,促进成果转化,共同推动AI产业的发展。日本AI学会(Japanese Society for Artificial Intelligence,JSAI)通过成立伦理委员会及制定专门准则,搭建起与公众对话的桥梁,确保AI技术的发展能充分考量社会反馈。韩国生成式AI初创公司协会则汇聚了20家创新企业,致力于共同构建一个包容、安全的AI生态,不仅推动符合伦理的AI技术进步,也增强了国家在AI领域的国际竞争力。
综上,这些国家的行业协会、标准化组织及产业联盟,通过建立严格的行业规范、推动技术创新、强化国际合作,并积极倡导道德与责任,不仅促进了AI技术的健康发展,也确保了技术进步能够惠及社会,助力构建一个AI与人类社会和谐共生的未来。
3)企业和研发机构层面:制定伦理原则、设立监管部门、发布实践指南
企业作为负责任AI的主体践行者,是AI技术开发和应用的主要实体,掌握着技术、人才、资金、市场等各类资源,在负责任AI治理中发挥着重要作用。企业通过内部行为准则和标准框架,指导员工在AI的研发与应用过程中严格遵守伦理及法律规定,保证AI技术的创新与运用既符合道德规范,又满足法律法规要求。AI领军企业,如亚马逊、Anthropic、谷歌、InflectionAI、Meta、微软和OpenAI,纷纷自发承诺,致力于提升其AI技术的安全性、可靠性和公信力。
亚马逊发布《负责任地使用机器学习》指南,详述了从设计开发到部署,再到持续使用的各个阶段,如何负责任地操作机器学习系统。Anthropic着重于促进评估方法的进步、模型功能相关的风险响应策略及可解释性研究。谷歌发布的AI原则确定了促进社会福祉、消除偏见、确保安全及透明度等目标,并配套实施措施以保障AI开发与部署的负责任性。微软除发布AI原则外,还设立了负责任AI办公室及AI伦理道德委员会,负责协调治理工作,并推出了一整套操作指南,涵盖治理结构的扩展、员工培训及危害预控工具,旨在提前干预并降低潜在负面影响,并对推出的AI产品进行道德审查。OpenAI同样致力于开发既安全又负责任的AI系统,增设多层防护措施以强化AI的可靠性。
此外,这些企业通过开展AI伦理、隐私保护的教育训练,有效提升了员工乃至社会大众对负责任AI治理的认知水平,共同促进了AI系统安全性、公平性和可解释性的提升,为行业的健康可持续发展奠定了基础。
4)社会公众层面:遵守原则标准、保护个人隐私、监督治理效果
社会公众作为AI技术的终端用户和直接受益者,不仅享受技术带来的便利,还承担着监督者的角色,确保AI的发展遵循社会伦理与道德规范。公众的积极参与和反馈,是推动技术决策公正透明的关键,有助于排除偏见与歧视现象。社会公众中的个体是AI技术应用的直接体验者,需在技术使用中保护个人隐私,维护信息收集与使用的知情同意权,同时积极参与监督AI治理议题。
社会公众层面的AI治理日益受到重视。《美国数据隐私和保护法》强化了对个人数据处理者的责任要求,特别是大型数据控制者和第三方服务商面临更严格的规范。世界经济论坛的《人工智能公平和包容的蓝图》倡导重新设计部署策略,以实现技术普惠,确保所有群体从中受益。《加拿大人工智能和数据法案》严厉禁止非法个人信息的处理,旨在加强隐私保护。美国的《人工智能问责制政策征求意见》则公开征集公众对审计、评估和认证机制的意见,旨在构建公信力,完善AI治理框架。社会公众的积极参与,不仅促进了对AI技术的深入了解,还提升了科技伦理意识,为AI的健康成长营造了有利的社会氛围。
美国是AI的全球领导者,在推动构建负责任AI的治理体系中走在全球前列,已经采取了一系列政策措施,在治理主体、治理工具、治理机制等方面开展了广泛探索,初步形成了各方共同参与、兼顾AI发展与安全的治理方式,促进负责任AI的发展与应用(图2)。
美国在推进AI的负责任发展上采用了一种全方位、多层次的治理模式,通过一系列战略规划、法律法规、监管协调的组合拳,展示了其在全球AI治理领域内的领导地位。这一模式不仅旨在促进AI技术的创新与应用,同时确保技术进步与社会价值观、伦理标准及个人权利保护相协调。
从战略层面来看,发布了《关于安全、可靠和可信的人工智能的行政命令》等一系列战略文件,明确了人才培养、基础设施建设和技术前沿探索等优先领域,为AI产业的长期繁荣打下了坚实基础。白宫管理和预算办公室(Office of Management and Budget,OMB)及NIST等通过制定具体的战略规划和技术标准,推出风险管理框架,展现了政府在引导AI发展方向上的主动性。在法律框架构建上,美国正不断完善法律体系,确保AI技术的负责任使用,包括对技术失误的法律责任划分、数据保护的强化以及算法透明度的提升。通过联邦及州层面的立法,如加州《消费者隐私法》,以及联邦贸易委员会(Federal Trade Commission,FTC)等机构发布的伦理实践指导方针,美国强调了在AI发展中法律与伦理的双重重要性。此外,美国政府在跨部门监管的整合上表现出了高度的协同性。通过白宫发起的AI倡议,国家科学技术委员会(National Science and Technology Council,NSTC)、OMB、国家安全委员会(National Security Council,NSC)等机构在不同层面上实现了策略、研发与应用安全的协同,形成了紧密的监管网络。州政府的积极参与,促进了联邦与州政策的互动,确保了AI监管的一致性和全面覆盖。
美国ACM提出道德和职业行为准则,指导从业人员在技术不断发展的背景下,做出符合伦理、有益于社会、尊重人权和法律的决策与行动。美国AAAI在此基础上发布了伦理与多样性准则,用于激励和指导所有AI专业人员的道德行为,包括从业者、教师、学生、有影响力的人,以及任何以有影响力的方式使用AI技术的人,并作为所有AAAI成员的道德和专业行为标准。同时,美国政府支持并积极参与国际隐私专业协会(International Association of Privacy Professionals,IAPP)等组织,以推动AI领域内隐私保护和伦理规范的确立,并确保行业遵循高标准的社会责任和伦理准则。IAPP作为全球隐私保护领域的权威机构,在负责任AI规范制定中,着重强调了AI系统设计和部署前隐私评估的必要性,旨在及时识别并减轻对个人隐私的潜在风险。此外,IAPP倡导提升AI系统的透明度和可解释性,确保所有利益相关方,特别是用户,能够理解决策过程并获得详细的解释说明。IAPP坚决捍卫个人数据的主权与操控权,明确赋予用户访问、修改及删除数据的权利,并要求企业构建清晰透明的数据管理机制,确保用户充分了解并有效管理自己数据的使用情况。在AI应用实践中,IAPP积极推广数据最少化与目的限制原则,保证仅收集和使用必要数据。尤为重要的是,IAPP鼓励企业在AI设计、开发和应用的全过程中,充分考虑伦理和社会责任,将道德和社会因素纳入决策考量,从而推动AI科技向健康、可持续、有益于社会的方向发展。
美国政府积极倡导企业采纳并实施负责任AI实践,并通过制定和发布相关标准及指导文件,引导企业走向负责任AI发展道路。国家AI研究与发展战略计划以及FTC等联邦机构,已推出了一系列指南和报告,旨在鼓励企业在AI应用中秉持透明、公平、隐私保护等原则。微软在推动负责任AI的发展过程中提出了一套完整的原则和标准,强调了透明度、公平性、隐私保护、安全性及合规性等核心要素。这些原则通常以企业发布的AI伦理声明或负责任AI准则的形式呈现,彰显了微软在发展AI技术过程中对透明度、公平对待、隐私安全和遵规守法等方面的承诺。谷歌、IBM等科技公司积极主动提出内部治理机制、技术解决方案、伦理培训、技术标准等方式进行AI伦理自治。
社会层面上,美国通过构建全面的政策指导框架,强调透明度、公平性及隐私保护原则。政府和非盈利组织推动公众教育活动,提升社会对AI技术的认知,促进公众参与伦理讨论,增强了政策的公众基础与包容性。在个人层面,美国致力于增强用户数据控制权,确保个人能够访问、修正或删除信息,并对自动化决策提出质疑,维护个人的自主性。同时,推动AI系统的透明度与可解释性,以及算法公平性审查,保障决策的无偏见性,防止技术滥用,保护个人免受歧视,维护社会公平。美国国家电信和信息管理局(National Telecommunications and Information Administration,NTIA)发布《人工智能问责制政策征求意见》,征求公众对AI风险相关政策的反馈,并将收到的建议向白宫反馈。通过反馈机制,社会公众能直接参与AI治理过程,确保技术发展更加贴合社会需求。
美国负责任AI治理模式是一个政府牵引、行业响应、企业自律、公众监督的全面协同体系。政府作为这一系统的关键,以战略框架引领方向;行业组织扮演着桥梁角色,推广行业最佳实践和伦理标准;企业通过自我监管和创新实践,积极响应政策指导,展现对社会负责的态度;社会公众积极参与和监督,确保政策的透明度与对公共利益的考量。此外,美国积极参与国际组织及规则的制定,以巩固其在全球AI领域的领导地位,主动把握国际规则的话语权,通过国际合作推动负责任AI。
负责任AI已成为世界主要国家关注的热点问题。推进负责任AI需要政府部门、行业组织、企业与研发机构以及社会公众等利益相关方共同参与、协同共治。为此,本文构建了“全过程—多主体—多层次—多机制”的治理体系框架,从四个层次分析了主要国家,特别是美国负责任AI治理的主要做法和特点。总体来看,政府要在负责任AI中发挥主导作用,通过制定战略政策、监管指导、伦理建设及提升公众认知等方面,确保AI创新在道德、安全、公正的框架内惠及社会;行业组织发挥着桥梁作用,通过制定行业规范、推动产业合作等措施,规范和协调各主体的具体行动;企业和研发机构等创新主体发挥着实践者作用,通过完善内部治理,加强自律,确保负责任地推进AI创新和应用;社会公众发挥着监督作用,积极参与相关议题,确保决策符合公众的利益和期望,并加强伦理和道德监督。
我国高度重视负责任AI,2019年发布AI治理原则《新一代人工智能治理原则——发展负责任的人工智能》,2021年发布《新一代人工智能伦理规范》。2023年5月,工信部科技伦理委员会、工信领域科技伦理专家委员会正式成立,进一步加强科技伦理审查和监管;7月,发布《生成式人工智能服务管理暂行办法》,鼓励生成式AI创新发展,对生成式AI服务实行包容审慎和分类分级监管;10月,在第三届“一带一路”国际合作高峰论坛提出《全球人工智能治理倡议》,为AI发展、安全、治理提供中国方案。但仍然存在伦理规范体系尚待完善、跨领域监管协同机制不够健全、数据隐私保护不足、算法透明度与可解释性不足,以及公众认知与参与度待提高等问题。对此,还需要各主体共同努力,不断完善AI治理体系,为保障AI领域安全和可持续发展创造良好环境。
一要加强负责任AI的战略和政策指引。加强和完善顶层设计,围绕负责任AI制定体系化的战略和政策,发挥好国家战略规划的导向作用。明确各部门、各主体在负责任AI中的定位、职责和工作机制,明确近期与远期发展目标。构建涵盖AI研发、生产以及应用各个环节的法律法规、伦理规范、行为标准等,促使AI技术在合法、道德的框架内发展。二要健全基于创新全过程的监管体系。加强对AI从研发到应用全周期的监管体系,建立行业特定的审查标准和认证流程,要求企业公开透明地报告算法设计、测试和运行中的伦理考量及公平性测试结果。应着力应对数据隐私保护的严峻挑战,重视解决算法透明度与可解释性欠缺的问题,鼓励研究和采用能够提升模型决策透明度的技术方法,确保用户及监管者能理解模型逻辑,维护决策的公正性和可问责性;同时,需提供培训和技术支持,帮助中小企业提升合规能力,并设立激励与惩罚机制,对合规表现优异的企业给予政策优惠,对违规行为实施有效制裁。三要增强社会团体和公众的参与度。加大AI伦理与技术素养的公众教育力度,特别是针对青少年和老年人等特定群体,提高其对AI技术潜在影响的认识。构建开放的沟通平台,鼓励公众、学术界、非政府组织等多元主体参与AI政策的讨论和监督,确保政策制定的包容性和透明度。建立健全个人数据权利保护机制,提供易于操作的个人数据管理工具和申诉途径,确保个人能有效参与自身数据的管理与保护,从而在AI治理中形成全社会的共同监督与合作氛围。四是要加强AI领域的国际合作。积极参与国际负责任AI治理规则的制定,学习其他国家的典型做法,分享中国的探索经验,推动形成符合全球共识的AI治理体系,共同应对AI技术带来的风险和挑战,促进AI创新惠及人类。
编辑部信息
邮箱:bj@clas.ac.cn
电话:028-85223853
网站:www.globesci.com