图源 | Internet
安小米1,2,3 徐明月4
1.中国人民大学信息资源管理学院,北京,100872;
2.中国人民大学数据工程与知识工程教育部实验室,北京,100872;
3.中国人民大学智慧城市研究中心,北京,100872;
4.北京电子科技学院图书馆(档案馆),北京,100070
摘要
关键词
人工智能 透明 核心概念 信息治理 技术治理 标准化协同
引用格式
安小米,徐明月.人工智能场景下的“透明”概念研究:基于国际标准术语定义的内容分析[J].信息资源管理学报,2024,14(3):42-55.
01
引言
随着人工智能技术逐渐成熟、应用场景日益丰富,其“算法黑箱”背后的信息不对称也给社会带来了风险与挑战[1]。为了使人工智能技术能够以一种对人类有益的方式运行,保障人工智能产业的健康发展,让技术服务于人类的价值观和伦理原则,需要建立一套针对人工智能的治理规则。国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》提出了八条治理原则,其中安全可控原则指出人工智能系统应不断提升透明性、可解释性、可靠性、可控性[2]。透明是人工智能治理的重要原则,国际上著名的阿西洛马人工智能原则(Asilomar AI Principles)中也包括“故障透明(failure transparency)”和“司法透明(judicial transparency)”两条透明性相关原则。由于算法的固有属性是不透明性,并且人工智能技术的应用可以给人带来虚实相融的交互体验,信息不透明的问题会影响到人机交互,为了解决信息不对称的问题,需要增加透明度来打开人工智能黑箱。人工智能的设计者、开发者、使用者有义务保证人工智能信息的公开透明,履行数字责任,维护数字公平,增强公众对人工智能的信任和提高人工智能的社会接受度。因此,人工智能场景下“透明”概念的界定也成为学界共同关注的议题。“透明”是一个广泛存在于政治、经济、工业等各个领域的概念[3],不同领域对于“透明”概念存在多种不同诠释,人工智能领域也尚未对透明的概念达成共识。构建人工智能场景下的透明概念体系,凝聚透明性原则的共识,有助于确立合理的人工智能透明标准,建立健全公开透明的人工智能监管机制,对实现算法监督、加强人工智能监管、提升人工智能可控能力以及人工智能相关标准的协同研究有着重要的理论价值和现实意义。
本文以《术语工作:原则和方法》(ISO 704:2022)[4]为概念及概念体系的分析依据,主要围绕国际标准中的“透明”概念,提出并回答以下问题:①国际标准中现有的“透明”概念有哪些;②人工智能场景下“透明”概念有哪些特点;③人工智能场景下“透明”概念体系是什么。
本文将透明视为信息和信息技术治理的重要组成部分,采用内容分析法对ISO、IEC和ITU三大国际标准化组织术语数据库中11个“透明”定义进行分析解构,抽取ISO、IEC和ITU-T标准中“透明”的核心概念、特征、对象及领域,结合人工智能的特点,梳理出国际标准中人工智能“透明”的核心概念及其关系,构建基于国际标准的人工智能场景下的“透明”概念体系,厘清“透明”概念的内涵与外延,为人工智能标准化协同应用提供参考和支持。
02
文献述评
2.1 “透明”概念及概念体系相关研究述评
中文文献中,大多数研究在组织的场景下探讨“透明”的概念,比如企业或政府的透明度。英文文献中,关于“透明”概念的研究视角更广,既有对概念本身的研究,也有聚焦于组织场景或特定场景下的研究。
本文选取了中英文文献中信息资源管理相关领域中有代表性的“透明”定义[3,5-8](参见表1),通过解构中英文文献中“透明”的定义,提取出核心概念和特征,并且根据核心概念间的关系绘制了“透明”的核心概念及其关系图(参见图1)。由图1可知,大多数文献都关注组织、系统或者流程中的“透明”概念,但是不同的文献对透明内涵的理解不同,有的定义将透明视为一种信息获取和利用的程度,有的定义关注透明与其他属性特征的关系,有些定义则将透明视为一组目标或者质量特性,也有定义直接给出了是否透明的判断标准。当前文献中的透明定义存在两点问题:一是研究视角局限于单一学科视角,比如政府管理、企业管理、信息系统等视角,缺少将透明视为信息治理的有效路径的研究;二是缺乏对透明定义的系统性研究,比如缺少对定义的客观论证,且国内研究缺乏对整个国际标准化组织“透明”相关概念及要素的系统研究,缺少标准化协同视角下的“透明”共识研究。因此,基于国际标准开展“透明”概念研究,能够更加系统地对当前较为权威的“透明”定义进行梳理分析,以厘清人工智能领域对“透明”概念的国际共识。
表1 文献中"透明"概念的定义
图1 中英文文献中“透明”核心概念及其关系
2.2 人工智能透明相关研究述评
本文归纳总结了人工智能透明以及算法透明研究的三个关注点。第一,什么是人工智能(算法)透明;第二,实现人工智能(算法)透明有何利弊;第三,如何实现人工智能(算法)透明。
一是对人工智能(算法)透明概念与内涵的阐释。关于什么是人工智能(算法)透明,Shin等[9]从特征的角度认为,算法透明由可理解性、可解释性和可观察性组成。Rader等[10]从目标导向将算法透明定义为能够使系统可知或可见的机制。Watson等[11]则从结果导向认为,透明是指如何使算法更加公开和开放。关于透明的具体内涵,主要包含主体、客体(公开的内容)、特征三项要素,如表2所示。
表2 文献中人工智能(算法)透明概念中的基本要素
二是对人工智能(算法)透明原则利弊的探讨。一方面,透明性有助于增加公民、用户对平台的信任[18-19],可以有效保护算法相对人的合法权益[20];但另一方面,有可能会与国家安全、社会秩序和私主体权利等利益相冲突[15],例如平台的算法属于商业机密[19],公开算法可能会为他人不当制造规避或“戏耍”算法的机会,公开数据会泄漏个人隐私或导致个人信息安全问题[6]。
三是实现人工智能(算法)透明的措施。学者们从法制建设、技术等视角提出了解决方案。法制建设方面,季冬梅[1]提出综合运用行为规范和赋权模式对人工智能技术进行事前预防、事中约束和事后救济;张红春等[20]从政民互动视角分别构建政府与公众各自的透明责任与行动义务;李国昊等[21]论证了政府、消费者监管对数字平台企业“算法黑箱”的治理影响。技术方面,可解释人工智能(XAI)是当前提高AI模型透明性的有效技术,赵延玉等[22]将可解释人工智能方法分为独立于模型的解释方法、依赖于模型的解释方法、因果解释方法三大类。Arrieta等[23]从设计透明模型(transparent models)和事后解释(post-hoc explainability)两个角度对现有的解释技术进行归纳总结。综上所述,现有研究围绕什么是人工智能透明、要不要实现人工智能透明性、为什么要实现人工智能透明、怎样实现人工智能透明等问题展开了讨论,但是对人工智能透明的概念界定多为技术视角,且多局限于算法透明,忽略了多学科视角和多场景下对透明认知的复杂性及其标准化协同问题。
03
国际标准中的“透明”核心概念及特征识别
3.1 国际标准中的“透明”定义
选择国际公认的三大权威性国际标准组织即国际标准化组织(ISO)、国际电工联盟(IEC)和国际电信联盟标准局(ITU-T)的术语数据库,作为国际标准术语研究的语料库,采用“transparency(透明)”为检索词在三大国际标准的术语数据库中检索,得到62个检索结果。其中56个来自ISO的OBP数据库、3个来自IEC的IEV数据库、3个来自ITU-T术语资源库。通过将相同的定义合并、整理,共收集到23个有效定义。考虑到人工智能分委会(ISO/IEC JTC 1/SC42,简称SC42)近期制定的定义尚未被收录到这三个数据库中,因此增加在SC42的WG2(大数据工作组)和WG3(可信工作组)的文件中包含的6个关于“透明”的定义,总共收集到了29个关于“透明”的定义。
为了能够得到通用型定义以供分析,按照以下两条标准对29个定义进行筛选:①包含标准:通用定义是指它被用于更广泛的领域或学科,且有可能被不止一个领域或学科使用;②排除标准:该定义过于针对单个领域或学科,并侧重于物理材料的属性。按照以上标准筛选得到了来源于31个标准[24-52]的11个可用于概念分析的通用型定义(参见表3)。
表3 用于概念分析的国际标准中的“透明”定义
3.2 “透明”定义的分析方法
分析“透明”的定义,首先要厘清客体、属性、概念和特征四个相关的关键术语以及它们之间的关系。根据ISO 704:2022[4]和ISO 1087:2019[24]中的阐释,现实世界中任何可感知或可想象的东西都可以被称作客体,客体拥有属性。在人类知识世界中,概念是客体的抽象化,并且在特定领域中将客体划分为有意义的知识单元,而特征则是客体属性的抽象化,不同的特征组合可以形成不同的概念。
分析“透明”定义的过程就是识别其核心概念及主要特征的过程,首先对描述对象相似的定义进行聚类,然后识别出每个定义中的核心概念、特征及其主要应用场景,绘制出“透明”的核心概念及其关系图。分析“透明”定义中的内涵、外延及特征,对于确定“透明”客体的性质,将真实世界中“透明”客体属性与人类知识世界中“透明”概念特征对应起来具有重要意义。
3.3 “透明”核心概念及特征识别
本文基于对概念、特征、属性、客体四个概念及其关系的理解,将归纳出的11个透明度定义进行解构,分析每个定义所包含的核心概念、特征及适用场景。11个定义涉及了信息技术、术语工作、组织管理、信息系统、人工智能多个领域和学科,包括信息呈现、系统属性、组织属性、决策和活动的开放性和意愿、概念与指称之间的关系等描述对象,并提取了不同对象在不同场景下“透明性”概念的特征。11个定义反映了不同学科或不同领域对“透明”定义的不同认识,但也存在相似之处,比如D1、D6都侧重于将“透明”定义为符合一定条件的信息呈现形式,D2、D3、D7、D8、D9则将“透明”视为一种属性,D4则是将“透明”定义为了一种关系,D5、D10、D11都强调了信息传达或交流的开放程度和意愿。
通过解构国际标准中“透明”定义中的对象与特征,提取出“透明”定义的核心概念。核心概念间的关系主要是根据《术语工作:原则与方法》(ISO 704: 2022)[4]建立,概念间的关系主要为“整体与部分关系”“种属关系”“关联关系”这三种关系类型。其中,整体与部分关系和种属关系是等级关系。整体与部分关系是指当上位概念代表一个整体时,从属概念代表这个整体的一部分。种属关系是指当从属概念的内涵包括上位概念的内涵加上至少一个额外的分隔特性时,两个概念之间存在着种属关系。关联关系是非等级关系,当可以通过经验在概念之间建立主题联系时,概念之间存在关联关系。
通过解构国际标准中“透明”的定义,提取出核心概念,由于“透明”的核心概念较多,为了更清晰地呈现概念之间的关系,对核心概念进行了梳理和聚类,最终得到“透明”的核心概念及其关系图(参见图2)。由图2可知,在多个场景下的定义中,将透明视为一种属性,核心概念可聚类为三个维度:透明所描述的对象、透明的特征、利益相关者。在不同的场景下,透明可以指信息呈现的特征,还可以指代系统、流程、组织或者关系的透明属性。透明特征则是对不同场景下透明内涵的更深入的阐释。利益相关者则是出现在信息交流活动场景下的信息接收方。
图2 国际标准中的“透明”核心概念及其关系
3.4 “透明”核心概念及特征分析
根据概念描述对象不同,对“透明”定义进行了聚类分析,发现不同场景下的“透明”概念各有特点,如表4所示。分析发现,在通用场景下,透明作为信息呈现的一种状态,其描述性要求大多属于信息质量要求,如开放、全面、易访问、清晰和可理解等,从操作层面上定义了实现透明目标应达到的信息质量要求。在信息技术场景下,特别是人工智能场景下,当透明对象为系统时,透明的描述性要求则分为两个方面:一方面是具备开放、问责、被理解和可重现等系统属性,另一方面则是信息传达要求,即将人工智能系统的适当信息高质量地传达给利益相关者。当透明对象为流程时,与系统类似,透明的描述性要求为具备开放和问责的属性,这是对其对象本身属性的要求而非信息质量要求。从管理的角度出发,“透明”对象为组织时,其要求为将适当的活动和决策信息高质量地传达给利益相关者,与系统的不同在于信息传达客体为活动和决策信息。在术语工作中,透明还可以指代指称与概念的关系,而其他场景下更多将透明与信息传达关联。
表4 不同对象的“透明”描述性要求
04
人工智能场景下“透明”概念构建
基于上述对国际标准中“透明”概念的分析研究,厘清了“透明”概念中的基本要素,并以此为基础,结合SC42制定的人工智能相关标准,分析人工智能场景下“透明”概念中的对象、利益相关者、特征,绘制人工智能场景下“透明”核心概念关系图,并选择了金融服务中的智能投顾场景进行了映射分析。
4.1 人工智能场景下“透明”的对象
人工智能场景下“透明”的对象主要包括组织、系统(人工智能系统)或流程及信息呈现。在人工智能场景下更加强调透明作为系统的属性,也有少量定义将透明视为组织或流程的属性。组织、系统以及流程透明都需要通过信息呈现的方式来实现,系统及流程透明则是组织透明的组成部分,这四个对象存在着宏观、中观至微观的层次关系(参见图3)。
图3 人工智能“透明”对象间的层次关系
根据《组织治理-指南》(ISO 37000:2021),组织可理解为“拥有自己的职责、权限和关系以实现其目标的个人或群体[53]。在人工智能场景下,组织是透明化义务的问责主体,组织原则和业务流程影响着人工智能系统的整个生命周期,组织透明影响人工智能系统的透明。例如,算法设计者、使用者和监管主体等组织主要承担了人工智能的透明化责任,有义务向利益相关者传达适当且清晰可理解的活动、流程、决策信息,比如风险管理、隐私管理、质量管理、顾客反馈等信息。
人工智能场景下,系统信息是信息传递的重要内容之一。系统可以是包含了多个相互作用的要素的广义系统[25],也可以指具体的人工智能系统。《信息技术-人工智能-人工智能概念和术语》(ISO/IEC 22989:2022)将人工智能系统定义为为给定的人类定义的目标集生成内容、预测、建议或决策等输出的工程系统[23]。系统信息是信息透明的重点对象,除制造商、供应商、版本等基本信息外,还应包括业务流程、应用情况、技术特征、质量和性能等信息。
《信息技术-人工智能-人工智能可信度概述》(ISO/IEC TR 24028:2020)将流程定义为使用输入来产生预期结果的一组相互关联或相互作用的活动[26]。人工智能系统的流程覆盖其整个生命周期,包括开始、设计和开发、验证和确认、部署、运行和监控、再评估、废弃等环节,与其他系统相比,人工智能系统会持续验证,具有明显的迭代性。流程信息可以让利益相关方更全面地理解系统,了解其整个流程可以帮助利益相关者增加对人工智能的信任。
4.2 人工智能透明的利益相关者
利益相关者是指任何能够影响决策或活动、被决策或活动影响或感知到自己受到决策或行动影响的个人、团体或组织[25]。由于透明性原则贯穿人工智能的整个生命周期,人工智能透明与人工智能的利益相关者大多数都存在直接或间接的关系。从人工智能价值链的角度出发,可以将人工智能利益相关者的角色分为人工智能提供者、人工智能生产者、人工智能消费者、人工智能合作伙伴,人工智能主体五个主要角色,每个角色由一个或多个具体的利益相关者组成(参见图4)。
图4 人工智能利益相关者的角色及其子角色
人工智能提供者是指提供使用一个或多个人工智能平台、产品或服务的组织或实体,比如提供智能工业机器人产品的企业;人工智能生产者主要指设计、开发、测试和部署使用一个或多个人工智能系统的产品或服务的组织或实体,包括算法设计师、测试工程师等多种角色;人工智能消费者是指直接或通过其向人工智能用户提供的条款来使用人工智能产品或服务的组织或实体,人工智能提供者和人工智能消费者之间存在着业务关系;人工智能合作伙伴一般指在人工智能场景下提供服务的组织或实体,人工智能合作伙伴可以执行人工智能产品或服务的技术开发、进行人工智能产品和服务的测试和验证、审计人工智能使用情况、评估人工智能产品或服务并执行其他任务;人工智能主体,也就是指受人工智能系统、服务或产品影响的组织或实体,可能是数据主体、监管机构等。
从透明化权利与责任的角度分析,人工智能提供者、生产者、合作伙伴需要向监管部门或消费者提供适当的信息,承担透明信息的提供义务。人工智能主体中的监管者和作为合作伙伴的审核者主要承担“透明”的监督义务,同时也对算法等商业机密有保密义务;此外,政府等监管机构应该向社会公开其监管情况。人工智能消费者处于人工智能信息链条中的弱势地位,应该保障消费者的知情权和数据主体的隐私权,以保护其合法权益。
4.3 人工智能透明的特征
根据表4中识别的“透明”概念中的特征,确定了关于“透明”特征的术语,并与SC42相关文件中的内容进行了对照检查(参见表5)。从表5可以看出,13个“透明”特征中,有10个特征在SC42相关文件的“透明”定义或内涵解释中出现过,其中易访问、问责、适当、可用、清晰、全面、开放、可理解8个特征出现在“透明”的定义中,准确、诚实2个特征出现在“透明”的内涵阐释中,完整、可重现、及时3个特征未出现在SC42文件的“透明”定义或内涵解释中。
表5 “透明”概念中的特征
人工智能透明的10个特征既是“透明”概念的组成部分,也从侧面反映了对于人工智能透明化效果的要求,比如信息质量、信息公开程度、信息公开内容的范围、手段等。开放、适当、全面和可理解是最常见的透明的特征,其中开放是对信息公开程度的要求,意味着要向所有的利益相关者无条件地传递信息;适当是对公开内容的范围要求,要求人工智能的透明并非“金鱼缸式”的充分透明,而是“合理”的透明;全面和可理解属于质量特征,是对公开内容的质量要求。
需要强调的是,透明的特征与其他人工智能系统属性特征存在交叉,在多数情况下是再现性、可观察性、可验证性、可用性、可解释性、可理解性、负责和可信赖性的先决条件。比如,从可解释性的角度来看,透明对可解释性是具有补充作用的,一些可解释性方法需要一定程度的透明性来访问人工智能系统的内部状态或中间结果,获取关于人工智能系统中使用的模型的信息[47]。
综上所述,人工智能场景下,透明是一种系统、流程或组织的属性,涉及到人工智能提供者、人工智能生产者、人工智能消费者、人工智能合作伙伴、人工智能主体五类利益相关者;具有易访问、问责、适当、可用、全面、开放、可理解、准确、清晰、诚实10个特征。基于上述对“透明”概念中的对象、利益相关者及特征的分析,可得出人工智能场景下的“透明”核心概念关系图(参见图5)。
图5 人工智能场景下的“透明”核心概念及其关系
4.4 人工智能透明的应用场景映射
随着人工智能技术发展和应用推广,人工智能技术的应用场景日益丰富,在政府管理、医疗、教育、娱乐、电子商务等领域都有广泛应用。不同场景下人工智能透明所涉及的利益关系和价值取向会有所差异,透明性原则需场景化解读或制定。为了验证构建的人工智能场景下“透明”概念体系的有效性,本文选取了金融服务中的智能投顾场景进行映射分析。
智能投顾是人工智能技术在金融领域的一项典型应用,具体是指通过基于网络算法的程序、利用创新技术为用户提供全权委托的账户管理服务的注册投资顾问。智能投顾可以根据客户的个性化风险偏好,通过智能算法模型,定制出合理的个性化资产配置方案。由于算法的不透明性,智能投顾服务存在潜在的欺诈风险,可能会威胁到金融消费者的知情权与公平交易权。为了加强对智能投顾的监管,美国证监会(SEC)2017年2月发布了《智能投顾监管指南》[54]、《智能投顾投资者公告》[55],金融业监管局(FINRA)2016年发布了《数字化投资咨询指引》[56]。笔者将人工智能场景下的“透明”核心概念体系与政策中“透明”的有关规定进行了映射。首先,智能投顾服务场景下,透明的利益相关者主要涉及到运营机构、个人投资者以及监管机构。其次,智能投顾服务场景下透明的对象即信息披露的内容主要包括两个方面:一是运营机构应在个人投资者作出决定前提供一些额外的告知信息,包括人机交互水平的特殊性、智能投顾的投资方式、涉及的费用以及与传统投顾的差异化等;二是监管机构要求智能投顾机构提交详细的表格并进行形式审查,包括运营机构和人员的信息、有关投资策略的说明书(收费范围、分析方法、投资策略和风险等 18 项内容)及补充说明(客户账户管理人员等信息),针对算法程序和网络服务特性披露的内容包括:算法的说明、算法功能的描述、算法的假设和限制、市场环境导致算法中断等特定风险、算法的重大修改、任何第三方参与算法开发管理可能导致的利益冲突的信息及产生的费用明细等,并要求每年更新。最后,透明的特征方面,法规要求算法的披露应当能够易于理解,重大修改应及时披露,关键信息应当醒目,披露方式能够在互联网平台恰当地获取,且不得发布虚假或误导性信息,与人工智能场景下“透明”的易访问、准确、可用、全面、诚实、清晰、可理解特征相对应。
05
研究结论
5.1 “透明” 概念对人工智能信息治理的启示
本文研究厘清了“透明”核心概念及其关系,为人工智能透明性原则的实现路径研究提供了新思路。从定义可以发现,“透明”概念与“信息”有着千丝万缕的联系,多个定义提到了信息呈现、信息提供、信息传达和信息沟通等词汇。定义中多次将信息的提供与传达作为实现“透明”的主要手段。因此,实现人工智能透明可以从实现人工智能信息透明入手,通过信息共享、信息公开的形式将适当的人工智能信息传递给利益相关者。根据人工智能场景下的“透明”核心概念, “透明”的利益相关者、“透明”的对象、“透明”的特征是“透明”的核心要素,为实现人工智能信息治理的路径研究提供了三个方面的启示。
首先,从利益相关者的维度出发,要用法律规范人工智能相关的社会关系。人工智能框架本身存在一套相对完整的社会关系,但是要满足社会提出的透明要求,就必须通过立法调整利益相关者的权利与义务,建立一张合适的人工智能信息传递网络。2021年4月,欧盟出台了《人工智能法案》(The Artificial Intelligence Act),明确了AI供应商的透明化责任,规定了要向公众提供的信息内容[57]。通过法律规范的形式明确各利益相关者的类型及其权责利关系,平衡好商业利益与公众权利。实现人工智能相关算法等信息的透明,首先建立人工智能提供者与生产者的信息公开机制,建立维护商业机密和公众知情权的平衡;其次要建立政府主导的人工智能透明监督机制,维护好生产者和消费者的合法权益和政府监管者的合规权限;最后要完善群众的投诉机制,保障好数据提供者以及人工智能消费者等群体的隐私权与知情权,打造可信的人工智能框架。
其次,从“透明”对象的维度出发,要明确信息共享或公开的内容和范围。人工智能信息共享或公开可以系统、流程和组织相关信息为框架,但是不同人工智能的应用场景存在差异化,信息公开的范围和程度也不同。受隐私、商业机密保护等方面的限制,“金鱼缸”式透明无法实现,那么信息公开的范围需要进一步明晰。不同场景下人工智能的系统、流程和组织也会不同,技术也在不断发展,需要根据整体性原则制定实施细则。我国2022年3月施行的《互联网信息服务算法推荐管理规定》规定了算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等[58]。2023年7月国家出台《生成式人工智能服务管理暂行办法》,提出基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性[59]。这项规定为人工智能算法信息的公开范围的划分提供了依据。
最后,从“透明”特征维度出发,要增强人工智能信息的质量以保障“透明”的效果。透明原则旨在解决“算法黑箱”带来的信息不对称问题,但是公众对于技术理解必然存在一定的障碍,仅公开人工智能技术的信息并不能够真正达到预期的效果,需要增强信息的可理解性、可用性,这就对公开信息的质量提出了一定要求。除了通过完善信息共享、开放机制来保障信息质量,学界还提出通过可解释人工智能技术来提升人工智能的可理解性,例如2016年美国国防部高级研究计划局启动了“可解释的人工智能”项目,旨在创建一套机器学习技术,产生可解释的模型,使终端用户能够理解、信任人工智能系统[60]。
5.2 研究贡献与局限
本文以ISO、IEC和ITU-T三大国际标准组织中“透明”概念为分析样本,基于最新发布的术语工作标准《术语工作:原则和方法》(ISO 704:2022),通过“核心概念-特征-场景”对定义中的核心概念进行分析解构,回答了国际标准中现有的“透明”概念有哪些的问题。以国际标准中“透明”概念的要素为基础,结合ISO/IEC JTC1/SC42所制定或起草的相关标准,对人工智能相关标准中采用或定义的“透明”概念进行了分析,明晰了人工智能场景下“透明”概念的对象、利益相关者和特征,回答了人工智能场景下“透明”概念有哪些特点的问题。通过梳理核心概念及概念关系,回答了人工智能场景下“透明”概念体系是什么的问题,为人工智能透明实现路径研究提供了方向。
本文构建了基于国际标准的人工智能场景下“透明”的概念体系,对人工智能信息治理和信息技术治理的标准化协同研究具有理论意义和现实价值。主要体现在两个方面:
第一,本文通过梳理与人工智能相关的国际标准中对“透明”概念的观点和视角,为人工智能场景下的“透明”共识构建提供了依据。由图1和图2对比可得,文献和国际标准对“透明”概念的界定存在一定的差异(见表6),两者都将组织、系统和流程视为“透明”的主要对象和场景,但是国际标准中的定义强调了信息呈现在“透明”中的作用。此外,相比于文献中“透明”的定义,标准中的定义对于特征属性的概括更为全面。与其他文献相比,将国际标准作为文本分析的主要材料具有明显的优势,其对于“透明”概念的界定更加全面和权威。
表6 代表性文献与国际标准中的“透明”概念对比
第二,本文厘清了人工智能场景下“透明”概念的内涵与外延,以透明对象、利益相关者、特征为主线,对人工智能场景下“透明”概念的内涵进行了剖析,明确了人工智能透明性原则实施的主体、客体以及具体场景,对于人工智能透明性原则的实现路径研究有一定的借鉴价值,为人工智能透明性规则研究提供参考。确立人工智能透明性规则,有助于实现算法监督、进行算法问责、破解“算法黑箱”,对加强人工智能监管和提升人工智能可控能力有一定的现实指导意义。从信息治理角度,基于国际标准构建人工智能“透明”的概念体系,对人工智能信息披露研究有借鉴价值,为人工智能场景下的信息治理和信息技术治理提供了标准化协同的新思路。
本文局限于ISO、IEC和ITU-T三大国际标准组织发布的标准化文件,未来调查对象可扩展到更多国际标准组织发布的标准化文件。未来还将持续跟踪标准化文件中的“透明”定义及其核心概念,收集更多的与人工智能透明相关的政策文件,同时将结合实证研究,验证并迭代改进人工智能场景下的“透明”概念体系。
支撑数据由作者自储存,链接:https://pan.baidu.com/s/1VgCUq7vxE7onzrnoFQSCjQ 提取码:u52f(文件名:定义解构与术语来源.docx)
参考文献
作者简介
*原文载于《信息资源管理学报》2024年第3期,欢迎个人转发,公众号转载请联系后台。
* 引用格式
安小米,徐明月.人工智能场景下的“透明”概念研究:基于国际标准术语定义的内容分析[J].信息资源管理学报,2024,14(3):42-55.
往期 · 推荐
▲点击访问信息资源管理学报小程序
制版编辑 | 周凡倩
审核 | 于 媛
长按识别二维码关注我们
信息资源管理学报
分享、在看与点赞
只要你点,我们就是朋友😊