自生成式人工智能火遍全球以来,有关其漏洞和安全的质疑声层出不穷,包括图灵奖得主、苹果联合创始人、马斯克以及「人类简史」作者等在内的超过1000位大佬联名呼吁——应该立即停止训练比GPT-4更强大的AI系统,暂停期至少6个月。3月底,意大利因隐私问题已成为第一个禁止Chat GPT的西方国家。此后,德国、加拿大、法国等也相继表达相似态度,一度让AIGC在欧洲陷入僵局。随着反对的声量越来越大,3月29日,英国政府发布了针对人工智能产业监管的白皮书,提出对AI技术全方位监管的方法。
而我国在开发AIGC产品后,也逐渐意识到人工智能的发展不能“蒙眼狂欢”,国家互联网信息办公室“及时出手”,于4月11日就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,彰显出了中国鲜明的监管态度。
如今,人工智能早已成为全球新一轮科技革命和产业变革的着力点,在一定程度上象征着综合国力和人民福祉。但当“监管”成为人工智能发展的全球时代主题时,我们该如何防止“将新事物扼杀在摇篮”里的心态,在监管之下寻找适合我国AI发展的突破口?我想,我们应该区别于欧盟强监管策略和美国自治式管理模式,站在我国安全与发展并重的立场上,建立一套多维度、多层级、多领域探索人工智能的特色治理之道。
本期小强传播将用纵向的逻辑来梳理我国人工智能相关的政策文本,以政策延续性的视角来观测我国AI产业的建设维度和战略重点,为我国人工智能发展与监管的博弈模式提出相关建议,也为未来我国特色治理道路的研究注入些许活力。
我国人工智能相关政策的发文主体分析
对2017年7月以来搜集到的19个与人工智能相关的政策文本进行提取,共得到17个政策主体。从人工智能相关政策的发文数量来看,近年来,相关政策的发文数在不断增加。其中,单独发文量为16,占总发文量的84.2%,单独发文量和总发文量的增长趋势相似,由此可以看出,我国的人工智能政策呈现多以国家部门或机构单独发文为主,多部门联合发文为辅的特点。从人工智能政策发文主体结构来看,有8个政策发文主体以协同的方式参与政策的制定和发布,未有单独发布政策文本的情况。在发文总量靠前的主体中,教育部、科学技术部是以单独发文为主;国家发展和改革委员会、工业和信息化部是以联合发文为主。
各发文主体间的合作网络能够进一步帮助我们有效地观测到发文主体的合作水平。若两个发文主体间存在共同合作发布人工智能相关政策文本的情况,则对应的值为1,否则为0,以此建立邻接矩阵并导入UCINET软件绘制政策主体合作网络图。在17个颁布过相关政策的政府部门中,有12个主体参与了合作,共构成了55条(去除重复次数)合作关系线,网络密度为0.4167 。根据点的度数中心度,我们可以看到代表科技部、工信部的节点与许多节点直接相连,较之其它节点拥有较高的度数中心度。可见,科技部和工信部在各部门针对不同人工智能政策的合作网络中拥有较大的“权力”,担当了制定和发布政策的重要角色。
根据中央法规政策的效力级别,可以将政策文本分为法律法规、行政法规、部门规章、司法解释、行业规定和团体规定。法律法规经由全国人民代表大会审议通过,效力级别最高;行政法规由国务院制定,级别次之;部门规章由国务院各部委和具有行政管理职能的直属机构,根据法律和国务院的行政法规、决定、命令,在本部门的权限范围内制定;司法解释、行业规定以及团体规定的效力级别相对较低。[2]对19个政策文本的分析显示,诸如《通知》《意见》这类部门规章较多,共16个,占比84.2%。行政法规、司法解释等文本较少,所以人工智能在历时的发展过程中还是缺乏相应的法律法规和规章制度,仅仅通过效力级别较低由部门机构颁发的《通知》《意见》作出大致的引导和整体性规划,其政策细致度和相关管理方法有待完善。
我国人工智能相关政策的发文主题分析
二模网络是由于节点的二元性而产生的网络,建构“发文主体-主题”之间的二模网络,可以将政策发文主体和发文主题这两个集合都纳入同一个网络中,以此通过各集合内部的互动来厘清人工智能政策主体与主题的关系网络结构。通过构建“人工智能政策主体-主题”网络图,可以直观清晰地观测到各发文主体涉及到的政策主题分布,从而进一步了解发文主体在某领域的关注情况以及历时人工智能政策的聚焦点。图中红色的圆形节点代表发文主体,蓝色方形节点代表发文主题,圆形节点越大,越说明该发文主体涉及到的发文主题多;方形节点越大,越说明有较多的发文主体在该主题领域颁布了相关政策。线条的粗细意味着发文主体在发文主题领域发文量的多少。
从整体来看,“场景创新”“建设标准”是政策文本制定过程中最为关注的主题;科技部和工信部最大程度地参与了不同政策主题的制定与颁布。另外,对于具体的政策领域,已有部门形成了相对独立的“行动者-事件”网络,如教育部在“人工智能+教育”上就具有极强的“政策发布话语权”。然而多数的部门在“整体规划”类的主题领域中存在着职能交叉的情况,要求在各尽其责的基础上共同合作,如促进人工智能伦理安全问题的解决就必须协调动员国务院、最高法和信息安全标委会多个部门,而不是依靠单一部门的独立管理。
将奇异值分析法应用于人工智能政策文本的“发文主体-主题”二模网络中,可发现特定的主题组合及其对应的发文主体,降低其维度数,找到两者间的共同因子[3]。对“发文主体-主题”二模网进行 SVD 分解,共出现10个奇异值。在分析得到的 10 个奇异值中,前三个奇异值占总体的 57%,可以解释人工智能相关政策主体与内容主题之间的特征。
发文主题的因子结果如图所示,因子1为公共因子,在公共因子1上赋值全为负数,说明在人工智能政策发展未能体现出某一主题的普遍性和重要性。因子2和因子3都是特征因子,在特征因子中数值越大表现出发文主题在该因子下的特征性,场景创新在因子2上的负载值最大,可将其定义为“多领域因子”。人工智能+X(试验区)和人工智能+X(平台)在因子3的负载值最大,可将其定义为“单领域因子”。从发文主题的因子结果来看,科技部在这两个因子的负载值均为最高,前者为0.839,后者为0.226,说明该部门不仅参与整体发展规划,还对人工智能+X等具体领域负有相应的规范职责,是促进人工智能场景创新、科学化发展、打造多领域智能等政策制定的主要部门。另外,工信部和科技部在“创新因子”中的负载值都较高,工信部“创新因子”负载值为0.340,“人工智能+X因子”负载值为-0.425,这说明在人工智能示范应用场景的发展领域中,工信部和科技部可能存在职责交叉或者共商合作的情况。
将SVD可视化处理后的二维散点图能更加清晰地聚焦发文主题和发文主体的关系。可见,发文主体与发文主题之间并未存在强线性关系,而是存在一些明显的聚类。
2017年以来有关人工智能的政策可以分为三个阶段,从政策的阶段性来体现不同时间切片下发文主题的重点和演变。2017年-2018年是新一代人工智能加速发展的初始期,这一时期的发文主题较少,仅仅只有总体规划性和学科领域性的文件出台。2017年7月国务院印发的《新一代人工智能发展规划》作为我国第一个在人工智能领域进行系统部署的战略规划,提出了AI发展的总体思路、战略目标、主要任务和保障措施。同时,“人工智能+教育”的议题也被提上日程。2019年-2020年,发文主题和发文主体较之前一个阶段有明显的增加,多部门齐头并进,围绕人工智能建设标准和产业规范的主题逐渐增多。“人工智能+X”的主题涌现,新模式、新样态的《通知》层出不穷,相关部门先后两年出台针对“人工智能+试验区”的工作指引,并根据实际情况进行调整修订,“人工智能+教育”的发展主题也得以延续。2021年-2022年这两年,发文主体开始关注人工智能带来的伦理安全问题,在兼顾发展主题的同时也不忘管控治理,可以看到这一时期出现了效力层级相对较高的司法解释文件和法规制度。但负责发展和治理主题的主体部门并未形成结构化的网络,这说明目前我国尚未将治理融入到具体的沿革路径里,仅仅对人工智能的设计制造和使用范围作出预先性的防范,并未在具体发展场景中介入调节和干预。
我国人工智能相关政策的政策工具分析
政策目标的实现需要合理的政策工具支持,政策工具包括一系列的方法、机制和手段,在不同学者对政策工具的论述中,Rothwell, Zegveld按照政策对科技活动的作用层次,将政策工具分为三种类型:一是供给型政策工具,即政府通过资金、人才、信息、技术等手段直接供给;二是环境型政策工具,即以法规制度等策略性约束来营造良好的发展环境;三是需求型政策工具,即要求政策拉动市场需求,增加市场的活力,消除不利于政策对象市场发展的因素。[4]在对19个涉及到人工智能的政策文本进行分析后,总结出了促进人工智能发展的政策工具的具体维度。
从政策工具的条文分布来看,我国人工智能政策文本中涵盖了三个主要的政策工具,最为主要的是环境型和供给型政策工具,主要占比为56%和27%。其中,环境型政策工具以策略措施和目标规划为主,“加强、构建、调整”为关键词,对人工智能的基础层面、应用层面、技术层面进行政策性策略引导,所涉及的措施较为全面但缺乏有针对性的政策。供给型政策工具主要关注人才和财政投入,在人才投入方面,多以教育培训,加强人才资源保障来实现国家层面对人工智能领域的人才培养需求。另外在财政方面,政策鼓励各地试验区的创新发展并给予了一定的资金支持,并通过财政投入和政策倾斜,激发企业积极性和行业活力。需求型政策工具相对来说使用较少,目前仅仅依靠宣传引导、开展公共活动来提高社会对人工智能的认知水平及拉动需求。国际间的交流合作聚焦于推动制定人工智能领域相关国际标准和伦理规范,补齐国内人工智能发展的短板,这是兼顾人工智能监管和发展需求的重要维度,但该政策工具目前使用不足。
结论与展望
自2017年《规划》提出以来,人工智能的行业发展在国家政策的指引下已经初具规模,甚至小有成就,从刚开始的单一发文主体到建立发文主体间的内部合作网,有关人工智能的相关政策制定和颁布的体系已日渐成熟,主体责任日趋明晰。政策发文主题逐渐“由模糊到聚焦”,从“整体规划”到“人工智能+X”的具体领域发展,再到对“科技伦理”的关注,人工智能的政策文本正在与现实发生密切碰撞。为了回应AI发展的现实关切,相关的政策里也体现出了多样化的政策工具,其中环境型政策工具使用占据主导地位,由于人工智能涉及到的类别、模式、场景繁多,因此大部分的政策都从“政策引领,行业自律”这一块入手,给人感觉“整体有余,而细节不足”,自主解释性较强,强制规范性较弱。
为此,本文主要提出两大建议:首先是优化政策主体网络结构。我们可以看到,人工智能的政策在一定程度上是多部门联合商议的产物,因此,我们有必要关注部门间的沟通是否畅通、是否透明;是否存在权责交叉的问题而考虑部门合并,节约资源;是否需要专门建立相关小组,就人工智能的具体问题进行具体分析。另外,政策的效力问题也是有关部门需要考察的重点,要思考在什么情况下采用效力层级较高的政策文本来管理和规范,以及政策效力的约束时间规定,以防政策成为无效的“故纸堆”。
其次是完善政策工具应用结构。供给型政策工具的直接推动作用、环境型政策工具的间接引导作用以及需求型政策工具的拉动作用,是促进我国人工智产业发展的三驾马车,三者缺一不可。[5]但目前我国人工智能的政策工具存在环境型过溢,而需求型不足的情况。在生成式AI引发如此大的热议之际,我们亟需正视机器生成内容的价值和人类作为主体的利益需求,通过更多样的方式来加强监管,增加合法利用AI的社会需求,减少违法使用而牟取利益的非公共需求。另外,调整环境型政策工具的内部维度比例,在法律规范上保障人工智能发展环境稳定。
参考文献
编 辑 | 谢娟
如需转载,请联系获取授权