基本信息原文标题:Amplified Vulnerabilities: Structured Jailbreak Attacks on LLM-based Multi-Agent Debate原文作者...
星图实验室协助vLLM项目修复多个高危漏洞
01背景vLLM 是一个高吞吐量、低内存占用的开源 Python 库,专为大型语言模型的推理和服务设计。它通过优化的内核和高效的资源管理,支持 AI 开发者在各种硬件平台上部署和运行大型语言模型,目前...
AAAI 2025|利用语言模型实现跨异质性知识转移
AAAI 2025|利用语言模型实现跨异质性知识转移题目:Harnessing Language Model for Cross-Heterogeneity Graph Knowledge Trans...
RAG 终极手册:从知识混乱到精准输出的技术跃迁
喜欢就点击关注我哦~检索增强生成(Retrieval-augmented Generation),简称RAG,是当下热门的大模型前沿技术之一。RAG结合检索准确性和生成创造性,实现准确与创新。RAG架...
如何使用Ollama在本地运行Qwen3并支持MCP和工具使用
Qwen3是阿里巴巴Qwen团队最新发布的开源大语言模型,提供具有竞争力的性能,高度模块化和工具使用能力。在本指南中,我将向您展示如何通过Ollama在本地运行Qwen3,并启用MCP(模型上下文协议...
AI大语言模型攻击
Web LLM攻击为了提升在线客户体验,各大机构纷纷集成大型语言模型 (LLM)。然而,这也使其面临 Web LLM 攻击的风险,这些攻击利用了模型对攻击者无法直接访问的数据、API 或用户信息的访问...
FreeBuf周报 | ChatGPT成功生成CVE有效攻击程序;AI幻觉催生攻击
各位 Buffer 周末好,以下是本周「FreeBuf周报」,我们总结推荐了本周的热点资讯、一周好文,保证大家不错过本周的每一个重点!🤖ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序...
不要停,继续说下去!——针对大语言模型的推理成本攻击:Engorgio
随着 ChatGPT 等大语言模型(LLMs)在各类任务中大放异彩,越来越多的场景开始依赖它们来提供服务。然而,由于 LLM 在推理阶段对算力的需求极为显著,一个潜在但被忽视的安全威胁也悄然浮现:恶意...
OWASP发布生成式AI安全治理清单
随着OpenAI、Anthropic、Google和微软等公司的生成式AI及大语言模型(LLM)用户量呈指数级增长,企业IT安全决策者正努力跟上AI技术的快速发展步伐。非营利组织OWASP最新发布的《...
云上LLM数据泄露风险研究系列(二):基于LLMOps平台的攻击面分析
一. 引言在上一篇系列文章《云上LLM数据泄露风险研究系列(一):基于向量数据库的攻击面分析》中,笔者对几款业内常用的向量数据库的暴露面、数据泄露风险进行了介绍,最后给出了一些针对向量数据库数据泄露...
大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
大模型10大网络安全威胁及防范策略OWASP发布的《大语言模型人工智能应用Top10安全威胁2025》,大语言模型人工智能应用中存在的十大安全风险,相比2023版有一些变化,10大安全威胁如下:1、提...
大模型10大网络安全威胁及防范策略
OWASP发布的《大语言模型人工智能应用Top10安全威胁2025》,大语言模型人工智能应用中存在的十大安全风险,相比2023版有一些变化,10大安全威胁如下:1、提示词注入:用户通过特殊输入改变模型...