01背景vLLM 是一个高吞吐量、低内存占用的开源 Python 库,专为大型语言模型的推理和服务设计。它通过优化的内核和高效的资源管理,支持 AI 开发者在各种硬件平台上部署和运行大型语言模型,目前...
vLLM框架曝高危远程代码执行漏洞,威胁AI基础设施安全
高性能大语言模型(LLM)推理服务框架vLLM近日曝出高危安全漏洞(编号CVE-2025-32444),该漏洞CVSS评分达到满分10分,可能通过Mooncake集成组件引发远程代码执行(RCE)风险...
漏洞分析 CVE-2019-6250
一软件介绍ZeroMQ(Zero Message Queue) 是一个 C++ 编写的高性能分布式消息队列,是一个非常简单好用的传输层,使得 Socket 编程更加简单、简洁和性能更高效。ZeroMQ...