来源:www.pcpd.org.hk
私隐专员公署提醒「领英」(LinkedIn)用户留意个人资料被用于生成式人工智能模型训练
日期:2024年10月3日
个人资料私隐专员公署(私隐专员公署)留意到,职场社交媒体平台「领英」(LinkedIn)最近更新了私隐政策,使领英可以使用其用户在平台上的个人资料和内容来训练生成式人工智能模型创作内容,并将同意有关用途的用户选择预设为「开启」(即「同意」)。
领英的私隐政策更新在其他司法管辖区引起了资料保障机构的关注,而私隐专员公署对于预设使用用户的个人资料来训练生成式人工智能模型的预设设定,是否正确反映用户的意愿,同样表示关注。因此,公署已去信领英了解有关情况。
个人资料私隐专员钟丽玲提醒领英用户应留意领英私隐政策的更新,了解相关政策内容,以决定是否同意领英使用他们的个人资料来训练人工智能模型。如果领英用户不愿意授权领英使用他们的个人资料进行生成式人工智能模型的训练,可以按照以下步骤(https://www.linkedin.com/mypreferences/d/categories/privacy)更改有关预设设定以撤销权限:
1. 前往帐户设定中的「资料隐私」部分,然后选择「用资料改进生成式AI」以找到相关选项。
2. 关闭「使用我的资料训练内容创作AI模型」选项以撤销权限。
私隐专员公署欢迎「领英」(LinkedIn)暂停使用香港用户个人资料训练生成式人工智能模型
日期:2024年10月15日
个人资料私隐专员公署(私隐专员公署)于2024年10月3日对职场社交媒体平台「领英」(LinkedIn)预设使用香港用户在平台上的个人资料和内容来训练生成式人工智能模型创作内容表示关注,并去信领英了解有关情况。领英昨日回复私隐专员公署,确认在处理公署的关注期间,自2024年10月11日起,已暂停使用香港用户的个人资料作上述用途。
个人资料私隐专员钟丽玲欢迎领英暂停使用香港用户的个人资料来训练生成式人工智能模型创作内容的决定。私隐专员公署会继续跟进及监察有关情况,确保香港用户的个人资料私隐受到保障。
现状
10月16日,我收到了领英的隐私政策邮件,说不使用用户训练的地区有欧洲经济区、瑞士和英国,没有香港。
但如果香港IP点击“选择退出设置”,该页面确实会显示“您所在的地区无法使用设置”。