✦
•
✦
新华网报道链接:
http://www.news.cn/info/20240923/
106d41996e364fda8b943840449c6554/c.html
联合国科学和技术促进发展委员会执行主席、WDTA创始理事长彼得·梅杰指出,制定国际AI标准对于确保AI技术的安全性、伦理性和互操作性至关重要。随着全球AI技术的迅猛发展,虽然带来了诸多创新机遇,但也暴露出数据隐私、安全和伦理方面的挑战。他强调,国际社会必须加强合作,建立统一的AI治理框架,以确保AI技术在安全、道德的前提下得到广泛应用。WDTA推出的AI STR认证计划,正是通过制定一系列国际标准,确保AI开发和应用符合全球安全与合规要求,为全球AI治理提供了可靠的框架和工具。
WDTA执行理事长李雨航指出,随着生成式AI技术的迅速发展,确保AI系统从设计、开发到实际应用的每个阶段都能够遵循最高的安全与伦理标准已成为全球共识。AI STR认证计划不仅仅是对技术安全性的全面评估,它还为企业提供了系统化的风险管理工具,帮助企业在快速发展的AI环境中建立起全球信任,并推动技术的创新与责任化应用。
截止日前,WDTA已发布三项AI STR标准“生成式人工智能应用安全测试标准”、“大语言模型安全测试方法”和“大模型供应链安全要求”(点击文字跳转详情)。这些标准的制定为全球AI技术的开发与应用提供了统一的框架,推动了AI技术在安全性、可信性及数据隐私、算法公平、伦理责任等方面的合规性。
国际AI安全标准,左右滑动查看更多
AI STR标准由众多国际知名科技公司和组织的广泛支持与积极参与,其中包括云安全联盟(CSA)大中华区、微软、谷歌、蚂蚁集团、百度、NIST、Meta、科大讯飞、香港科技大学、芝加哥大学、PrivateAI等。
生成式AI应用的认证
该认证旨在评估和验证生成式人工智能(GenAI)应用在安全性、可信度和责任性方面的表现。认证覆盖了多层次的测试和验证标准,包括基础模型选择、嵌入和向量数据库、提示执行、代理行为、微调、大模型响应处理测试以及AI应用的运行时安全,确保AI应用在其整个生命周期内的安全性和可靠性,以提高AI应用的安全性,减轻潜在的安全风险,提升整体质量,并推动AI技术的负责任开发与部署。
评估依据:WDTA AI STR-01《生成式人工智能应用安全测试标准》。
评估对象:基于大语言模型(LLM)构建的人工智能应用。
评估范围:
证书样式
认证目标:
降低风险:通过系统化的安全评估和测试,帮助企业识别和缓解AI应用中的潜在安全风险,减少安全事件的发生。
满足合规:帮助组织满足各类法规和合规要求,减少因安全漏洞或不当使用AI技术而带来的法律和财务风险。
促进创新:通过标准实施,指导组织采用最佳实践,推动技术创新和开发更为安全可靠的AI应用。
增强信任:通过第三方的测试和认证,向用户和利益相关者证明其生成式人工智能应用的安全性和可靠性,增强用户对AI应用的信任度。
面向大语言模型的认证
证书样式
认证目标:
提升安全性和可靠性:通过严格的安全测试和评估,企业可以识别并修复大语言模型中的潜在漏洞,显著提升模型的整体安全性和可靠性,减少遭受对抗性攻击的风险。 降低运营风险:通过系统的安全检测和防护措施,企业能够有效减少因模型安全问题引发的运营风险,避免潜在的经济损失和品牌损害。 推动责任使用:帮助组织在设计和部署AI系统时,更多地考虑其社会影响和伦理问题,从而推动AI技术的负责任使用。 持续改进:通过定期的安全测试和更新,帮助大语言模型保持高水平的安全性和可靠性,促使其不断适应新出现的威胁和挑战
AI STR项目联系:
Candy Ye, info@wdtacademy.org
ABOUT MORE
世界数字科学院(别称:世界数字技术院,WDTA)是在日内瓦注册的国际非政府组织,支持联合国的可持续发展。WDTA秉承着速度、安全和共享的“3S”理念,致力于加快数字领域规范和标准的建立,引领数字技术的创新和研究,培养先进的数字人才,并加强国际数字合作,以促进数字经济的可持续发展,实现数字技术普惠人类,不让任何一个人掉队。
点击“阅读原文”跳转WDTA世界数字科学院官网。