高性能大语言模型(LLM)推理服务框架vLLM近日曝出高危安全漏洞(编号CVE-2025-32444),该漏洞CVSS评分达到满分10分,可能通过Mooncake集成组件引发远程代码执行(RCE)风险...
AI大语言模型攻击
Web LLM攻击为了提升在线客户体验,各大机构纷纷集成大型语言模型 (LLM)。然而,这也使其面临 Web LLM 攻击的风险,这些攻击利用了模型对攻击者无法直接访问的数据、API 或用户信息的访问...
不要停,继续说下去!——针对大语言模型的推理成本攻击:Engorgio
随着 ChatGPT 等大语言模型(LLMs)在各类任务中大放异彩,越来越多的场景开始依赖它们来提供服务。然而,由于 LLM 在推理阶段对算力的需求极为显著,一个潜在但被忽视的安全威胁也悄然浮现:恶意...
OWASP发布生成式AI安全治理清单
随着OpenAI、Anthropic、Google和微软等公司的生成式AI及大语言模型(LLM)用户量呈指数级增长,企业IT安全决策者正努力跟上AI技术的快速发展步伐。非营利组织OWASP最新发布的《...
【论文速读】| 软件安全的大语言模型 (LLM):代码分析、恶意软件分析、逆向工程
基本信息原文标题:Large Language Model (LLM) for Software Security: Code Analysis, Malware Analysis, Reverse ...
SWE-agent:利用大语言模型修复GitHub仓库问题
这款名为SWE-agent的开源工具通过将GPT-4o和Claude Sonnet 3.5等强大语言模型与现实世界工具连接,使其能够自主执行复杂任务:从修复GitHub实时仓库中的错误、解决网络安全挑...
USENIX Sec 2025:大模型越狱防御框架——JBShield
随着大语言模型(Large Language Models,LLMs)的广泛应用,其安全问题也逐渐引发关注。尽管现有安全对齐策略能够在一定程度上限制模型输出有害内容,但其仍然容易受到越狱...
专题解读|利用结构化知识增强大语言模型的推理能力
利用结构化知识增强大语言模型的推理能力一、简介知识图谱(Knowledge Graphs, KGs)和表格等结构化数据在表示和分析现实世界中的复杂关系方面发挥着重要作用。这些结构化数据能够以一种清晰且...
RAG 受到攻击:LLM 漏洞如何影响真实系统
在第一部分中,我们展示了如何欺骗大语言模型(LLM)来执行数据。这一次,我们将了解这在现实世界的检索增强生成(RAG)系统中是如何发挥作用的 —— 在现实世界中,被污染的上下文会导致网络钓鱼、数据泄露...
【论文速读】| PiCo:通过图像代码情境化对多模态大语言模型进行越狱攻击
基本信息原文标题:PiCo: Jailbreaking Multimodal Large Language Models via Pictorial Code Contextualization原文作...
潜藏在AI工作流程中的数据泄露风险
随着人工智能技术深度融入日常业务流程,数据暴露风险正持续攀升。提示词泄露已非偶发事件,而是员工使用大语言模型(LLM)过程中的必然产物,首席信息安全官(CISO)必须将其视为核心安全问题。为降低风险,...
万字研究报告 ‖ ChaMD5 AI组首个大模型安全深度研究报告发布
这是 ChaMD5 安全团队 AI 组的第一篇关于大语言模型(LLM)的安全研究报告,由于是初次涉足这一领域进行深入研究并撰写报告,我们深知在专业性与严谨性方面可能存在着诸多不足。真诚地希望各...
16