扫码订阅《中国信息安全》
邮发代号 2-786
征订热线:010-82341063
近年来,全球人工智能浪潮持续升温,大模型作为AI领域中的重要一环,其能力随着平台算力的提升、训练数据量的积累、深度学习算法的突破,得到了进一步提升。然而以大模型为核心涌现的大量技术应用背后,也带来诸多新的风险和挑战。
近日,360数字安全集团发布全球首份《大模型安全漏洞报告》(以下简称“报告”),从模型层安全、框架层安全以及应用层安全三大维度探查安全问题,并借助360安全大模型自动化的代码分析能力,对多个开源项目进行代码梳理和风险评估,最终审计并发现了近40个大模型相关安全漏洞,影响范围覆盖llama.cpp、Dify等知名模型服务框架,以及Intel等国际厂商开发的多款开源产品,全面呈现了全球大模型发展所面对的安全威胁态势,为构建更加安全、健康的AI数字环境贡献力量。
生成及应用过程隐忧
模型层安全或影响训练及推理
安全边界模糊
框架层安全使攻击面频繁增加
模块协同存在风险
应用层安全可致目标系统失控
作为国内唯一兼具数字安全和人工智能能力的公司,360数字安全集团基于“以模制模”、“用AI对抗AI”的理念,遵循“安全、向善、可信、可控”原则,打造安全大模型,保障大模型全方位服务的安全运行,防止不法分子利用相关漏洞对系统进行攻击,从而保护用户隐私和服务稳定性,持续助力政府、企业以及科研机构能够高效应对在大模型训练和应用过程中的多重挑战,推动国内大模型生态持续健康发展。
分享网络安全知识 强化网络安全意识
欢迎关注《中国信息安全》杂志官方抖音号
《中国信息安全》杂志倾力推荐
“企业成长计划”
点击下图 了解详情