在 vLLM 中发现了一个关键的安全漏洞,vLLM 是一个流行的开源库,用于高性能推理和大型语言模型(LLM)的服务。该漏洞被追踪为 CVE-2025-32444
,具有最高的 CVSS 评分 10.0
,这意味着使用其 Mooncake 集成的部署存在严重的远程代码执行(RCE)风险。
vLLM 在 GitHub 上拥有超过 46,000 个星标,是一个被广泛采用的 LLM 服务库,因其在学术、研究和企业级 AI 系统中的速度和灵活性而受到信赖。随着基于 LLM 的工具在各行各业的普及,模型服务堆栈中的安全至关重要。
该漏洞在于 vLLM 的 Mooncake 集成如何通过网络处理序列化数据,它使用 Python 的 pickle 模块通过不安全的 ZeroMQ 套接字。
该问题具体位于 vllm/vllm/distributed/kv_transfer/kv_pipe/mooncake_pipe.py
文件中的 recv_pyobj()
函数。此函数隐式使用 pickle.loads()
通过 ZeroMQ 套接字处理传入的数据。
此漏洞影响所有积极使用 Mooncake 集成的 vLLM 实例,版本大于或等于 0.6.5。如果您的 vLLM 部署未使用 Mooncake 进行分布式 KV 传输,则您不会受到此特定漏洞的影响。
vLLM 团队已迅速解决了此关键问题。修补后的版本 v0.8.5 现已可用。至关重要的是,所有受影响的 vLLM 部署都应立即升级到此版本,以降低远程代码执行的风险。
详情:https://github.com/vllm-project/vllm/security/advisories/GHSA-hj4w-hm2g-p6w5
原文始发于微信公众号(独眼情报):vLLM 的 Mooncake 存在严重 RCE 漏洞(10)
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论