澳大利亚发布自愿性AI安全标准

文摘   2024-09-06 18:00   上海  

点击蓝字关注并设为星标

不错过人工智能最新动态









2024年9月5日,澳洲工业、科学和资源部(DISR)发布了自愿性AI安全标准。DISR强调,该标准为组织建立了一套统一的实践,以确保安全和负责任地开发和部署人工智能。





01

为什么要实施自愿性标准?


该标准为政府考虑强制性护栏选项时的未来立法设定了预期,它还为组织提供了AI治理和道德实践的最佳范本,从而为他们提供了竞争优势。


该标准旨在指导组织:


  • 提高澳大利亚的安全和负责任的能力水平;

  • 保护人民和社区免受伤害;
  • 避免其组织的声誉和财务风险;

  • 提高组织和社区对人工智能系统、服务和产品的信任和信心;

  • 符合澳大利亚人民的法律义务和期望;
  • 在国际经济中更无缝地运作。

数据显示,采用AI和自动化预计将为澳大利亚带来1700亿至6000亿美元的GDP。首个自愿性AI安全标准将为澳大利亚提高AI的安全性、质量和可靠性带来长期利益。它将支持更广泛地使用AI产品和服务、增加市场竞争和技术创新机会。

一个坚实的监管框架对确保澳大利亚为AI带来的转型做好准备至关重要,这可以通过紧急引入拟议的强制性护栏来实现。


澳大利亚科学院院长Chennupati Jagadish教授表示,“这些提案,包括引入澳大利亚人工智能法案,是朝着正确方向迈出的重要一步,以制定适当应对人工智能的机遇、挑战和风险的法律法规。”

02

自愿护栏


该标准由10个自愿性护栏组成,适用于整个AI供应链中的所有组织。该标准进一步指出,自愿护栏是组织改进其AI实践并确保遵守未来潜在法规的准备措施,可帮助组织从AI中受益,同时减轻和管理AI可能对组织、人员和团体构成的风险。

具体而言,安全标准建议组织应:

  1. 建立、实施和发布问责流程,包括治理、内部能力和监管合规战略;

  2. 建立和实施风险管理流程以识别和降低风险;

  3. 保护AI系统并实施数据治理措施,以管理数据质量和来源;

  4. 测试AI模型和系统以评估模型性能并在部署后监控系统;

  5. 使人工控制或干预AI系统以实现有意义的人工监督;

  6. 告知最终用户支持AI的决策、与AI的交互以及AI生成的内容;

  7. 为受AI系统影响的人们建立流程,以质疑其使用或结果;

  8. 对AI供应链中的其他组织保持数据、模型和系统的透明性,以帮助他们有效应对风险;

  9. 保存和维护记录,以便第三方评估对护栏的遵守情况;

  10. 让利益相关者参与进来,评估其需求和情况,重点关注安全、多样性、包容性和公平性。


该标准还解释了AI系统的开发人员和部署人员必须采取哪些措施来遵守防护机制。

根据该标准,前9个护栏与拟议的在高风险环境中部署AI的强制性护栏保持一致。但第10个自愿护栏除外,它强调了与利益相关者持续接触以评估其需求和情况的重要性。


03

实践案例


该标准还包含了实例,以演示组织如何在不同的AI使用案例中应用防护机制。这些示例涵盖了通用AI聊天机器人、面部识别技术、推荐引擎和仓库事故检测系统等场景。每个示例都展示了特定的护栏如何帮助管理在实际环境中部署AI系统的风险和优势。

例如,NewCo是澳大利亚一家快速发展的B2C公司,拥有50名员工,年营收为350万美元。在公司新产品即将发布之际,NewCo的销售主管提议为网站采购一个AI聊天机器人,可与客户互动以回答常见问题。

自愿性标准给出了NewCo在此背景下是否遵循自愿性AI安全标准带来的不同后果——

当遵循上述标准时,NewCo可实现成功的产品发布,客服团队使用通用AI来查找相关的公司文档,从而更快地回答客户查询,提高员工效率和客户满意度。

NewCo不遵循上述标准时,其采购的AI聊天机器人则可能产生超出功能需要的个人信息收集;为最大程度提升销售额,向客户提供大于约定优惠力度的折扣,导致无法成交;显示折扣时的性别歧视等问题。

来源Dataguidance News、DISR
编译|郑惠敏
审核|张羽翔



END



上海市人工智能与社会发展研究会
上海市人工智能与社会发展研究会官方公众号,聚焦人工智能时代的前沿理论和现实议题,助力国家、城市、组织的数智化转型。
 最新文章