2024年9月16日,阿根廷数据保护机构(AAIP)发布了一份面向公共和私营机构的指南,内容涉及透明度和个人数据保护,旨在促进负责人的人工智能。
该指南重点关注基于自动决策系统的技术,特别是那些整合了人工智能的技术,及其对基本权利的影响,并探讨如何从监管和机构的角度应对这些挑战。
指南的基本内容
指南的目标是什么
该指南旨在支持公共和私营机构的参与者:
在实施人工智能系统的技术开发项目中融入透明度和个人数据保护;
预防早期阶段的风险,并在系统生命周期内促进整合负责任的人工智能;
确保公民权利的有效行使
指南的适用范围是什么?
该指南适用于以下公共和私营机构的参与者:
提供和开发整合人工智能系统解决方案的组织;
政府实施促进人工智能的使用政策;
在其流程和/或产品中实施人工智能的组织;
研究人工智能系统影响的学术机构;
在面对人工智能快速发展的情况下,确保公民权利保护的社会组织。
人工智能系统的定义和特征是什么?
该指南引用了联合国教科文组织(UNESCO)、欧盟、萨多斯基基金会和经济合作与发展组织(OECD)对人工智能的定义,但将人工智能归类为自动决策系统(Automated Decision System,ADS),即能够基于预定义规则或算法进行决策的系统。然而,其补充指出,人工智能系统更为复杂,因为它具有识别模式的能力,这使其能够理解自然语言、做出决策并进行自适应学习。
人工智能系统的关键特征是什么?
该指南识别了人工智能系统的三个要素,包括:
传感器:从环境中收集原始数据;
执行器:根据模型输出改变环境状态(处理);
操作逻辑:以建议、预测或决策的形式向执行器提供能够影响环境状态的输出。操作逻辑分为三部分:算法模型本身、模型构建(是否自动)以及模型推断,即人类和/或自动工具从模型中得出输出的过程。
人工智能的主要挑战是什么?
该指南识别了与透明度和数据保护相关的人工智能系统的多个问题和威胁,包括:
偏见和歧视:人工智能系统可能会延续或甚至加剧偏见和歧视,如感知偏见、技术偏见、建模偏见和激活偏见。在大数据处理过程中,可能会出现种族和性别偏见/刻板印象,因此依赖这些数据的人工智能系统(如面部识别系统)可能具有更高的错误率;
数据质量缺乏:人工智能系统可能包含不合格的数据,或者可能包含错误或虚假信息,例如在许多情况下人工智能系统所使用的数据为已经过时的数据,进而产生了对数据的合法性的质疑;
隐私泄露风险:人工智能需要大量个人数据来训练模型和进行推断,这增加了隐私泄露的风险;
安全风险:人工智能系统可能容易受到网络攻击,这可能会影响其功能,并导致个人数据的未授权披露、操控模型结果或损害系统完整性的结果;
个人数据的不当使用:为特定目的收集的个人数据可能被用于其他目的,违反数据保护原则;
身份欺诈:深度伪造(deepfake)利用人工智能技术进行身份伪造,这可能影响个人隐私并欺骗第三方以获取敏感信息或系统访问权限
未经同意的监控:人工智能系统增加了监控和分析人们日常习惯的可能性,即大规模监控;
缺乏透明度:由于其复杂和不透明的特性,人工智能模型使得理解决策过程变得困难,并难以解释每个变量如何影响最终决策,这可能削弱公民对过程的信任,并增加技术滥用或误用的风险;
神经数据:能够预测或推断人类神经系统活动信息的人工智能系统增加了在未获得个人明确和知情同意的情况下收集和使用该类神经系统活动数据的风险,这可能导致隐私受到侵犯。
关于个人数据保护和透明度的原则是什么?
该指南强调,人工智能系统的数据收集、使用、共享、存档和删除必须符合相关法律,保障某些权利,如访问权、纠正权、更新权和删除权,反对处理和撤回同意,并遵循数据保护的原则,如合法性、同意、目的、数据质量、安全性、保密性和最小化。
该指南还阐明了人工智能系统的透明度和可解释性的含义,第一,从过程而言,其应当包括组织必须执行的一系列策略、实践、工具和程序;第二,从结果而言,组织能够使其追求的目标、管理的资源、实施的行动和取得的结果可见。
指南建议
该指南为人工智能系统生命周期中的透明度和个人数据保护提供了多项建议,分为四个部分:
系统设计参与者应:
评估项目对个人数据保护的影响;
考虑隐私设计(Privacy by Design)和默认隐私(Privacy by Default);
确保数据来源的合法性;
应用最小化、匿名化、加密、访问控制、保存、销毁等技术。
验证者和验证参与者应:
发布系统范围的伦理承诺文件;
评估算法是否与既定的价值观、原则和指南一致;
校准数据的相关性和准确性;
识别偏见。
实施参与者应:
评估用户体验,以确保最高的可访问性和可用性标准;
通过个人数据保护、透明性、可追溯性和可审计性来保护信息;
记录测试结果和采取的步骤;
发布隐私政策。
操作和维护参与者应:
更新并通知公民系统版本;
记录系统性能、影响评估和纠正措施;
向主管部门报告任何伦理和/或安全事件;
指定数据保护官(DPO);
开通查询和投诉的沟通渠道,确保内部程序和回应以非人工智能专家亦能懂的语言进行。
建议
阿根廷数据保护机构所提供的指南强调了自动决策系统的潜在风险,如偏见、数据质量问题和隐私泄露,提出了评估、验证和维护等多项建议,以确保公民权利得到有效保护。该指南提醒出海阿根廷的企业应加强对AI系统的透明度,确保合规性,并在设计阶段考虑隐私保护,定期评估和更新系统以应对潜在风险。
转载:出海互联网法律观察微信公众号,原标题《出海南美 | 阿根廷AAIP发布人工智能透明度和个人数据保护指南》
作者:王捷律师团队
声明:版权归原作者所有,转载请注明作者及来源
深圳市蓝海法律查明和商事调解中心对文中观点保持中立
联系电话:0755-82804677
传真:0755-82804651
蓝海涉外法律服务
蓝海中心是全国首个依托大型国别法律信息数据库及专家库提供域外法律查明及其他跨境法律服务的专业化平台机构,是最高人民法院国际商事法庭域外法查明平台的共建单位。目前,与蓝海中心合作的个人专家达到2400多位,查明案例覆盖190余个国家和地区,包括“一带一路”沿线国家、非洲大部分国家、欧洲、北美和拉丁美洲国家和地区。
服务类型
1.域外司法辖区的法律环境调研;
2.域外市场新兴业务合规论证调研;
3.涉外法律文书审阅与法律事务谈判;
4.域外法律专家匹配与案件管理;
5.对涉外争议或东道国审查等事项提供实体法与程序法适用、法律风险等方面的中立评估意见;
6.根据具体项目提供定制化域外法查明、咨询服务。
服务优势
第一,拥有强大的涉外法律服务资源储备
蓝海中心以蓝海专家库及“一带一路”法治地图法规数据库为依托,可快速响应域外法查明与咨询需求。
蓝海中心进行了一系列包括域外劳动法律、数据合规、隐私保护法、知识产权管理、商业秘密保护、贸易法以及外商投资法等涉及中国企业走出去法律风险防范的研究,储备有丰富的涉外法律资源。
第二,具备高素质的骨干队伍,有丰富的涉外法律服务经验
蓝海中心拥有高素质的法律和英语专业业务骨干,包括在法院、仲裁委或律师事务所有丰富工作经验的资深法律实务专家,以及拥有国际机构或域外律所工作经验、可以实现中英文流畅沟通的法律专业人才。
蓝海中心自成立以来,为涉外企业法律部门、涉外律师事务所、仲裁委员会、法院涉外庭提供权威的外国法律查明、涉外法律咨询服务。同时,亦为对外投资个人及企业提供域外投资前期论证、落地配套、合规方案设计、法务定制化培训、律师匹配等服务。
第三,提供定制化服务,服务与收费模式灵活
蓝海中心可根据客户的项目需求、适用场景以及时间节点,提供灵活的服务与收费模式,并尽可能配合客户所需的各项内外部要求,为客户提供高质量定制化服务。