随着《欧盟人工智能法案》(EU AI Act)的全文公之于众,此法案涵盖了透明度、隐私、教育、安全、反歧视以及风险评估等多个方面。
这部法案的独特之处在于其分级的体系设计以及基于相对风险的差异化义务设定。这部全面的法案适用于在欧盟内部使用或提供基于人工智能系统的所有公司,无论其母公司的所在地或公司规模大小。此外,它与白宫行政令及后续的人工智能权利法案蓝图高度契合,共同强调了对安全和防止歧视/偏见的重视。
从商业角度来看,我们预计最常见的高风险人工智能系统将集中在教育、安全(人脸识别)和雇用/招聘功能上,尤其是对于总部设在欧盟以外的跨国公司来说。不可接受的风险主要集中在歧视和偏见上,特别是当通过潜意识或类似技术对弱势或不利群体产生影响时。
引入针对不可接受和高风险的人工智能分级体系
这个分级体系明确划分了不可接受风险与高风险两个等级。在不可接受风险级别中,社会评分被严格禁止,同时,任何利用潜意识技术来操纵个体行为,进而可能引发身体或心理伤害的系统,也被明令禁止。此外,法律还明文规定,禁止利用与年龄、身体或精神残疾相关的敏感性,开发可能伤害特定群体内个人的人工智能系统。
该法案将其余层级定义为高风险,并为从事高风险系统的公司规定了义务,引入以下要求:
· 实施风险管理体系
· 数据质量分析和数据治理计划
· 技术文档
· 记录保存
· 透明度和向用户提供信息
· 人工监管
· 准确性、稳健性和网络安全
对于高风险人工智能系统,公司必须向用户提供有关系统所有权、联系方式、特性、局限性、性能指标和潜在风险的全面信息。这些信息包括输入数据的规格、系统变更、人工监督措施以及包含维护细节的预期使用寿命。开发此类人工智能系统,尤其是那些使用模型训练的系统,需要严格遵循关于高质量数据集的指导原则,考虑设计选择、偏见和特定用户特征。
这种对更高透明度和人工监督的要求,旨在使用户能够恰当地理解和利用输出结果,同时需要技术解决方案来应对数据投毒(data poisoning)和对抗样本(adversarial examples)等风险。Truyo总裁Dan Clarke说:“这项法规是一个重要的步骤,我认为最重要的是它将‘负责任的人工智能’和‘可信赖的人工智能’等术语引入了我们的讨论前沿。这是受监管的人工智能治理的真正开始。”
《欧盟人工智能法案》所勾勒的伦理原则
《欧盟人工智能法案》强调了几个与其目标和法规相一致的伦理原则。这些原则对于确保人工智能系统的负责任开发、部署和使用至关重要。与《欧盟人工智能法案》相一致的关键伦理原则包括:
• 尊重人类自主权:确保人工智能系统支持人类决策,同时不损害人类的能动性和自由、独立地作出选择的能力。
• 预防伤害:将人工智能系统的安全和保障放在首位,以防止对个人和社会造成身体、心理和财务伤害。
• 公平性和非歧视性:以防止偏见和歧视的方式设计和运营人工智能系统,确保所有用户都被公平对待并得到公平的结果。
• 透明度和可解释性:人工智能系统应透明,系统做出的决策应对用户和受影响方而言是可理解和可解释的。
• 隐私和数据治理:维护高标准的数据保护和隐私,确保人工智能系统处理个人数据的保密性和完整性。
• 社会和环境福祉:确保人工智能的开发和使用对社会进步和环境可持续性产生积极影响。
• 问责制:明确人工智能系统开发者、部署者和操作者的职责,以确保他们可以为这些系统的功能和影响承担责任。
这些核心原则反映了《欧盟人工智能法案》致力于培养一个安全、可信赖并尊重消费者基本权利和价值观的人工智能生态系统。
文章链接:
https://cloudsecurityalliance.org/blog/2024/06/20/eu-ai-act-introduces-unique-tiered-system-for-risks
本文翻译来自CSA翻译组:
翻译/审校:苏泰泉,CSA翻译组轮席组长
推荐阅读