11月6日,英国信息专员办公室(ICO)针对人工智能招聘工具发布了一份报告,指出人工智能招聘工具会对求职者产生负面影响,并敦促人工智能招聘工具的供应商更好地保护求职者的数据隐私权利,减少歧视和其他隐私问题。
一、报告发现的主要问题
使用人工智能招聘工具可能会引发歧视问题。人工智能招聘工具的搜索功能允许招聘人员筛选掉具有某些受保护特征的候选人。此外,其还可能会从求职者的工作申请中,甚至只是从他们的名字中就推断出求职者的性别、种族等特征。但这些推断的信息往往不够准确,无法进行有效的监测并减少偏见的产生。而且,这种推断通常是在没有合法依据且求职候选人不知情的情况下进行的。
有些人工智能招聘工具收集的个人信息远超实际所需。在某些情况下,个人信息被收集并与招聘网站及社交媒体上数百万用户的个人资料相结合,随后这些信息被用来构建数据库,招聘人员便可以利用这些数据库向潜在的求职候选人推广空缺职位。然而,求职者往往很难意识到他们的个人信息以这种方式被重新利用。
一些人工智能招聘工具的供应商错误地将自己定位为数据处理者而非数据控制者,且没有遵循数据保护原则。此外,有些供应商试图将所有合规责任转嫁给使用其工具的招聘人员。在这些情况下,相关的合同内容被故意制定得很不明确,或者让招聘人员处于信息不对称的状态。
二、报告给出的主要建议
公平
人工智能供应商和招聘人员必须确保他们通过人工智能公平地处理个人信息,包括监控人工智能及其输出中潜在或实际的公平性、准确性或偏见性问题,并采取适当行动来解决这些问题。此外,人工智能供应商和招聘人员还必须确保任何用于监控偏见和歧视性输出的数据是足够充分和准确的。
透明度和可解释性
招聘人员必须清楚地告知求职候选人,他们将如何通过人工智能处理个人信息。此外,人工智能供应商应该主动提供相关的人工智能技术信息或有关人工智能逻辑的信息来提升人工智能的透明度和可解释性。人工智能供应商和招聘人员必须在合同中明确规定哪一方负责向求职候选人提供信息。
数据最小化和目的限制
人工智能供应商应该全面评估开发、训练、测试和运营人工智能的每个环节所需的最少个人信息、处理个人信息的目的、其与原始处理目的的兼容性、需要个人信息的时间长度。招聘人员应该确保他们只收集实现人工智能目的所需的最少个人信息,并确认他们仅出于该特定有限的目的处理这些个人信息,且不存储、共享或重新处理这些信息。
数据保护影响评估
人工智能供应商和招聘人员必须在人工智能开发初期和处理之前完成数据保护影响评估,并且在人工智能发展和处理方式变化时进行更新。即使人工智能供应商仅作为信息处理者,人工智能供应商也应该考虑完成数据保护影响评估,以评测和缓解隐私风险,并证明已实施控制措施。
数据控制者和处理者的角色
人工智能供应商和招聘人员必须明确供应商对于每项个人信息的处理是控制者、共同控制者还是处理者,并且在合同和隐私信息中清晰记录这一点。如果人工智能供应商实际上对处理手段和目的拥有总体控制权,则它是控制者。
明确的处理指令
招聘人员必须为人工智能供应商制定明确且全面的书面处理指令,以便在处理个人信息时遵循。招聘人员应定期检查人工智能供应商是否遵守这些指令,并且没有将个人信息用于其他额外的替代目的。人工智能供应商在作为招聘人员的处理者处理个人信息时,必须仅遵循招聘人员的明确指令。人工智能供应商不得保留个人信息、未经许可分享信息,或超出其指令范围为自己的其他目的处理信息。
法律依据和附加条件
人工智能供应商和招聘人员必须在处理任何个人信息之前,确定他们作为控制者依赖的法律依据、确定处理特殊类别数据时的附加条件;还要在隐私信息和合同中记录、描述这些合法依据和条件;当合法依据和条件是合法利益时需要完成合法利益评估;当合法依据和条件是同意时,应确保同意是具体的、可细分的,且有明确的同意选项并进行适当的记录和定期更新,以及撤回同意应和作出同意一样容易。
来源|ICO官网
编译|张羽翔
审核|唐巧盈
END