[CSIAC]RAI工具包DAGR和SHIELD

文摘   2024-11-17 10:30   美国  

负责任的人工智能(Responsible Artificial Intelligence,RAI)工具包提供了一个自愿流程,用于识别、跟踪和改进AI项目与RAI最佳实践和美国国防部(DoD)AI道德原则的一致性,同时利用创新机会。它旨在使在AI系统整个生命周期中工作的人员能够评估系统与国防部AI道德原则的一致性,并解决通过该评估发现的任何问题。

RAI工具包围绕SHIELD评估构建,SHIELD评估是以下六个连续活动的首字母缩写,这些活动构成了特定项目的核心RAI活动:

1) 奠定基础 - 确定项目的相关RAI、道德、法律和政策基础,以及潜在问题(SOC)和机会。
2) 完善操作化 - 将基础和SOC操作化为具体评估。
3) 改进和创新 - 利用缓解工具在满足基础和解决SOC方面取得进展。
4) 评估状态 - 评估满足基础和解决SOC的程度。
5) 记录可追溯性 - 记录以确保可追溯性。
6) 通过持续监控检测 - 持续监控系统是否有任何性能下降。

该工具包还包括国防部特定的风险评估资源——国防部人工智能风险指南(DAGR)。

近期资料更新:
发消息“24087”,获取2024年11月重要报告和参考资料
发消息“24134”,获取第56届运输机加油机协会研讨会资料集
发消息“24101”,获取2024 LSIC Fall Meeting资料集
发消息“24135”,获取SCSP Ash Carter Exchange Cambridge资料集
发消息“24137”,获取英国Defence In Space Conference 2024资料集
发消息“24125”,获取英国Defence Space Conference 2024资料集
发消息“24138”,获取Mitchell Institute首届空中力量未来论坛(Airpower Futures Forum)资料集
发消息“24005”,获取美国和美军有关AI、数据和自主能力的相关资料
发消息“24071”,获取CSIAC网络安全和信息系统信息分析中心资料集

AerospaceDefense
关注国外航空航天和防务系统架构、软件和通信方面动态、搭建学习交流平台、提供开源情报分析服务
 最新文章