欢迎点击上方 TMT法律论坛 关注我们
导读
NEWS
★
NEWS
★
2024年9月,全国网络安全标准化技术委员发布《人工智能安全治理框架》(以下简称“框架”)。《框架》旨在推动政府、国际组织、企业、科研院所、民间机构和社会公众等各方就人工智能安全治理达成共识、协调一致,有效防范化解人工智能安全风险。
一、安全治理原则及构成
《框架》确立了包容审慎、风险导向、技管结合、开放合作四大原则。另外,《框架》针对不同类型的人工智能安全风险,从技术、管理两方面提出防范应对措施。
二、人工智能安全风险分类
《框架》将人工智能安全风险分为内生安全风险和应用安全风险,具体为:
1. 内生安全风险
模型算法安全风险:可解释性差的风险;偏见、歧视风险;鲁棒性弱风险;被窃取、篡改的风险;输出不可靠风险;对抗攻击风险。
数据安全风险:违规收集使用数据风险;训练数据含不当内容、被“投毒”风险;训练数据标注不规范风险;数据泄露风险。
系统安全风险:缺陷、后门被攻击利用风险;算力安全风险;供应链安全风险。
2.应用安全风险
网络域安全风险:信息内容安全风险;混淆事实、误导用户、绕过鉴权的风险;不当使用引发信息泄露风险;滥用网络攻击的风险;模型复用的缺陷传导风险。
现实域安全风险:诱发传统经济社会安全风险;用于违法犯罪活动的风险;两用物项和技术滥用风险。
认知域安全风险:加剧“信息茧房”效应风险;用于开展认知战的风险。
伦理域安全风险:加强社会歧视偏见、扩大智能鸿沟的风险;挑战传统社会秩序的风险;未来脱离控制的风险。
三、技术应对措施
针对前述安全风险,《框架》提出对应的技术应对措施,具体为:
1.针对人工智能内生安全风险
模型算法安全风险应对:提高人工智能可解释性、可预测性;在设计、研发、部署等过程中建立并实施安全开发规范。
数据安全风险应对:遵循数据收集使用规则,严格落实法律法规明确规定的用户合法权益。
系统安全风险应对:公开人工智能技术和产品的原理;对聚合多个人工智能的平台,加强风险防护;关注人工智能系统供应链安全等。
2.针对人工智能应用安全风险
网络域风险应对:建立安全防护机制、数据护栏等。
现实域风险应对:根据用户实际应用场景设置服务提供边界;提高人工智能系统最终用途追溯能力。
认知域风险应对:通过技术手段判别不符合预期、不真实的输出结果;对收集用户提问信息进行分类;加强对人工智能生成合成内容的检测技术研发等。
伦理域风险应对:采取训练数据筛选、输出校验的方式防止歧视;应用于直接影响公共安全等重点领域的人工智能系统,应具备应急管控措施等。
四、综合治理措施
《框架》提出在采取技术应对措施的同时,建立完善技术研发机构、服务提供者、用户、政府部门、行业协会、社会组织等多方参与的人工智能安全风险综合治理制度规范。
五、人工智能安全开发应用指引
《框架》针对模型算法研发者、人工智能服务提供者、重点领域使用者分别提出安全应用指引。
了解详情,请点击文末“阅读原文”。
作者往期文章推荐
中伦解读
域外关注
本期编辑:陈瑊 陈煜烺 林婉琪