研究人员发现流行开源机器学习框架的缺陷

科技   2024-12-07 13:09   广东  

网络安全研究人员披露了影响开源机器学习 (ML) 工具和框架(如 MLflow、H2O、PyTorch 和 MLeap)的多个安全漏洞,这些漏洞可能为代码执行铺平道路。

JFrog 发现的这些漏洞是该供应链安全公司上个月首次披露的22 个安全漏洞的一部分。

与第一组涉及服务器端缺陷不同,新披露的缺陷允许利用 ML 客户端,并且驻留在处理安全模型格式(如Safetensors)的库中。

该公司表示:“劫持组织中的 ML 客户端可以让攻击者在组织内进行广泛的横向移动。” “ML 客户端很可能可以访问重要的 ML 服务,例如 ML 模型注册表或 MLOps 管道。”

反过来,这可能会暴露模型注册凭据等敏感信息,从而有效地允许恶意行为者对存储的 ML 模型进行后门攻击或实现代码执行。

漏洞列表如下 -

  • CVE-2024-27132(CVSS 评分:7.2)——MLflow 中存在清理不足的问题,导致在 Jupyter Notebook 中运行不受信任的配方时发生跨站点脚本 (XSS) 攻击,最终导致客户端远程代码执行 (RCE)

  • CVE-2024-6960(CVSS 评分:7.5)- 导入不受信任的 ML 模型时,H20 中存在不安全的反序列化问题,可能导致 RCE

  • PyTorch 的 TorchScript 功能中存在路径遍历问题,可能由于任意文件覆盖而导致拒绝服务 (DoS) 或代码执行,然后可用于覆盖关键系统文件或合法的 pickle 文件(无 CVE 标识符)

  • CVE-2023-5245(CVSS 评分:7.5)——MLeap 在加载压缩格式的已保存模型时存在路径遍历问题,可能导致Zip Slip 漏洞,从而导致任意文件覆盖和潜在的代码执行

JFrog 指出,即使是从安全类型(例如 Safetensors)加载 ML 模型,也不应盲目加载,因为它们有能力实现任意代码执行。

JFrog 安全研究副总裁 Shachar Menashe 在一份声明中表示:“人工智能和机器学习 (ML) 工具具有巨大的创新潜力,但也可能为攻击者打开大门,对任何组织造成广泛的破坏。”

“为了防范这些威胁,重要的是要知道你正在使用哪些模型,并且永远不要从‘安全’的 ML 存储库加载不受信任的 ML 模型。在某些情况下,这样做可能会导致远程代码执行,从而对你的组织造成广泛损害。”


感谢您抽出

.

.

来阅读本文

点它,分享点赞在看都在这里

Ots安全
持续发展共享方向:威胁情报、漏洞情报、恶意分析、渗透技术(工具)等,不会回复任何私信,感谢关注。
 最新文章