导语
2023年10月,Nicholas Kluge Corrĕa和Camila Trindade Galvão等人在Patterns期刊上发表论文《全球人工智能伦理:对200条人工智能治理准则和建议的综述》。这项研究是由人工智能机器人伦理协会(AIRES)对人工智能指导方针进行的元分析。该协会是一个非营利组织,致力于提高对智能和自主系统的认识并开展伦理调查的研究。该研究对全球公共机构、学术机构、私营公司和民间社会组织发布的200项人工智能使用的治理政策和伦理准则进行了分析,确定了至少17个在数据集的政策和指导方针中普遍存在的共鸣原则,并将这些原则作为开源数据库和工具发布。
01
研究基础与分析框架
为了应对人工智能伦理领域研究的多样性和复杂性,克服先前研究的局限性,并通过系统化框架增强研究的透明度和深度,细致的分类和改进的数据可视化框架旨在提高分析的广度和深度,同时开源数据集的发布促进了学术共享和研究的可复制性。方法论的提出不仅推动了学术交流与合作,而且为制定相关政策和实践提供了坚实的基础,进而促进人工智能伦理的全球性发展和实施。
研究过程中对文档进行了更细致的类型分类,以反映其性质、目的、法律效力和关注范围的多样性。将文档性质/内容分为描述性、规范性和实践性三类,其中描述性文档提供人工智能技术的定义和描述,规范性文档提出伦理原则和行为准则,而实践性文档着重于提供实现这些原则的具体工具和方法。法规性文档包括政府法规、自我调节/自愿性自我承诺、推荐,分别代表由政府机构制定的具有法律约束力或非强制性的指导方针,私人组织和独立机构的自我约束性准则,以及仅提供伦理指导和治理建议的文档。将规范性机制的规范强度分为无法律约束力的准则和具有法律约束力的规章,前者体现为行业最佳实践或伦理劝说,后者则为具有明确法律后果的强制性规定。通过这种细致的分类和归纳,我们能够更全面地理解各类人工智能伦理准则文档的特点和作用,为未来的人工智能治理和法规制定提供参考。
为了提升数据可视化的直观性和用户友好度,开发了一个高度交互式的仪表板,允许用户通过自定义筛选器来探索数据,从而提供个性化的数据视图,用户能够自由地从不同角度分析数据。此外,简化了数据的呈现,采用图表、颜色编码等辅助手段,使信息更易于被非专业用户理解。使用开源工具如Power BI和Dash库,确保了仪表板的广泛可访问性和使用性。数据可视化框架直观、灵活且易于使用,帮助研究人员和决策者更有效地把握全球人工智能伦理准则的全貌。
研究通过网络搜索引擎和网络抓取技术,收集了200份文件。在数据收集阶段,研究团队的成员负责阅读、翻译、将文件特征编码,对所有工作进行复查,确保所有经过处理的文件都基于相同的标准和评估者,从而提高数据的一致性和可靠性。
最终,每份文件被赋予了13个特征,包括:来源国家、世界地区、机构、机构类型、发布年份、原则、原则定义、性别分布、文件大小、性质/内容(描述性、规范性、实践性)、法规形式(政府法规、自我调节/自愿性自我承诺、推荐)、规范强度(无法律约束力的准则、具有法律约束力的规章)、影响范围(短期主义、长期主义、同时考虑短长期影响)、标识符和附件(如标题、摘要、链接、相关文件)。
02
人工智能治理准则的主要特征
通过对200份准则文件的分析,识别出至少17个在政策和指南中普遍存在的原则,并以开源数据库和工具的形式发布,阐述了进行全球规模分析研究的局限性,提出应纳入未来监管努力的共识领域。
首先,从地理分布来看,大部分文件集中在欧洲、北美和亚洲,这突出了这些地区在人工智能伦理讨论中的活跃度和影响力。然而,非洲、拉丁美洲和大洋洲的代表性不足,这可能揭示了全球人工智能伦理讨论中的不平衡和潜在偏差。
在机构类型的分析中,政府和私营部门在人工智能伦理准则的制定中发挥了主导作用,反映了这些机构在人工智能技术发展和应用中的核心地位。与此同时,学术机构和非政府组织虽然在伦理原则的制定中也扮演了角色,但其参与度相对较低。
性别分布的分析揭露了人工智能伦理准则制定过程中存在的性别不平等问题。尽管许多文件未提供作者信息,但对提供作者信息的文件采用基于名字推断性别的方法发现,男性作者的比例仍然远高于女性,这与科技领域普遍存在的性别差异现象相吻合。
关于文件发布年份的分析显示,在2017年至2019年间,人工智能伦理准则的发布数量显著增加,这可能与人工智能技术的快速发展以及社会各界对人工智能伦理问题关注度的提升有关。
在文件类型的分类上,大多数文件属于规范性类型,提出了各种伦理原则和指导方针。然而,提供实践性指导或工具的文件相对较少,这表明在将伦理原则转化为实际行动方面存在改进空间。
伦理原则的分布分析表明,透明度、公平性、非伤害性、责任性和隐私性是被最频繁提及的原则,凸显了这些原则在全球人工智能伦理讨论中的核心地位。不同地区和不同类型的机构在原则的强调上存在差异,这可能与它们的文化背景、价值观和利益关切有关。
此外,在人工智能伦理准则中一些原则较少被提及,例如劳动权利、可持续性、真实性等,这些原则的相对缺失可能反映了当前在人工智能伦理讨论中存在的一些盲点和不足。
最后,该研究对人工智能伦理准则的当前状态和未来发展趋势进行了批判性分析。尽管已经取得了一定的进展,但人工智能伦理准则的制定和实施仍面临诸多挑战,包括定义的模糊性、实施工具的缺乏、立法推动的不确定性以及对长期风险的关注不足等。这些分析为人工智能伦理领域的研究者、政策制定者和实践者提供有价值的见解,并促进全球人工智能伦理准则的进一步发展和完善。
03
局限性
该研究识别并讨论了几个关键的局限性,这些局限性可能影响分析结果的全面性和深入性。首先,语言的限制可能导致非英语或非研究团队所掌握语言的文献被排除,从而限制了全球视角的代表性。其次,出版偏见可能使得研究倾向于已发表的准则,因此忽略了其他形式媒体中的重要讨论。此外,研究的范围主要关注已定义的“准则”,可能遗漏了学术工作中的相关伦理讨论。
时间范围的限制也意味着本文可能没有涵盖人工智能伦理领域的全部历史动态和趋势。方法上的选择,包括数据收集技术和分析框架,可能对结果和解释产生了影响,而不同的方法可能揭示不同的发现。同时,本文可能没有充分考虑人工智能伦理讨论背后的深层社会、文化和政治背景,这些背景对于全面理解该领域至关重要。
最后,尽管尝试了性别推断,但研究中对性别分布的分析可能未能完全揭示科技领域中性别不平等的所有问题。这些局限性为未来的研究指明改进的方向,以确保更全面地反映全球人工智能伦理准则的多样性和复杂性。