10月10日消息,谷歌公开发布其内部工具“Checks”,该工具可以帮助评估应用程序、代码和AI是否符合各种标准和法规,以应对监管要求。
该工具最初在谷歌内部使用,现在可以公开使用,并专注于合规性的三个关键领域——应用程序合规(App Compliance)、代码合规(Code Compliance)和AI安全(AI Safety)。
谷歌称,“Checks”建立了一个整体性运行框架可以覆盖开发人员使用AI产品时需要解决三个主要阶段的问题,分别是:
第一阶段“对齐阶段”:确定哪些政策法规与AI产品相关。
第二阶段“评估阶段”:确保初始模型版本可以完成开发所设定的预期任务。
“Checks”对AI模型进行“红队测试 ”和“提示词测试”,检测AI产品的是否存在安全隐患,并根据所选定的相关国家或地区法律法规检测AI产品在暴力、仇恨言论和敏感数据(如个人身份信息)方面的输出结果符合预期。
第三阶段“监控阶段”:在AI产品推出后,开发人员需要检查它在实际环境中可以正常、正确运行,确保不会被盗用或被黑客入侵。
例如,曾经有这样一个案例:一家公司推出了一个通用人工智能代理,为特定场景提供服务,但人们发现他们可以“黑”它,从而免费盗用这个模型,但这个模型的开发成本实际上非常高。
“Checks”可以监控输入提示和输出提示并检测问题,比如当有人试图对模型进行骇入时,输入提示就会被阻止到达模型;任何个人隐私数据的输出行为也都会被检测。
“Checks by Google”早在2023年5月就在谷歌官方的一篇博客中被提及。
谷歌称在这篇博客中称,“Checks”最初于2022年作为Google内部孵化器的一部分推出,用于快速发现和解决Google Play和iOS商店中的应用程序的隐私合规性问题,该初始版本具有3个关键产品领域:
1.合规性监控(Compliance Monitoring)通过使用自动化测试来扫描应用程序及其隐私披露情况,帮助公司识别潜在的法规和移动应用商店合规性问题,并提供可操作的建议来帮助解决任何已发现的问题。
2.数据监控(Data Monitoring)提供应用程序数据收集和共享行为的端到端可见性,使开发运营团队能够更高效地、集成地管理其数据治理。
3.商店披露支持(Store Disclosure Support)可帮助公司确保其开发的程序符合Google Play数据安全要求。