一. 概述作为本系列的第四篇,本文聚焦大模型推理软件的安全风险。 随着大模型上云趋势加速,尽管推理框架通常被视为底层基础设施(负责模型运行的资源调度与计算优化),但经我们的研究发现,部分开源推理框架,...
《LLM大模型越狱攻击预防与框架》第10章:未尽探索 (Unexplored Mist)
《深度研究》栏目文章为了安全更闪耀本文9220字,阅读时长约30分钟 导读 接上文,继续探讨LLM大模型越狱攻击预防之道第10章 未尽探索 (Unexplored Mist)尽管针对大语言模型(LLM...
LLM大模型越狱攻击预防与框架3.3
《深度研究》栏目文章 为了安全更闪耀 本文48530字,阅读时长约150分钟 锐安全注:本文为李滨老师倾情巨作,原文55079字,已经超出了微信公众号文章单篇5万字的最大字数限制,因此把《第10章 未...
网络安全顶会——SP 2025 论文清单与摘要(中)
上一篇 网络安全顶会——SP 2025 论文清单与摘要 只有cycle 1的论文,另一半的遗漏了(感谢网友_JIER提醒),在公众号一篇限制5万字,所有论文的摘要加起来超过了,因此只能分篇。105、"...
Anthropic MCP 中的漏洞:全模式中毒 + 机密泄露工具攻击(内含 PoC)
近年来,大型语言模型(LLM)通过与外部工具的交互,显著扩展了其在现实世界中的应用场景。Anthropic 推出的模型上下文协议(Model Context Protocol, MCP)作为一项开源标...
G.O.S.S.I.P 阅读推荐 2025-03-05 LLM是安全的银弹吗?
1986年,Fred Brooks 发表了经典论文 No Silver Bullet—Essence and Accident in Software Engineering,指出了没有什么神奇的“银...
大语言模型红队测试:全面的分步指南
重要声明: 本文档中的信息和工具仅用于授权的安全测试和研究目的。未经授权使用这些工具进行攻击或数据提取是非法的,并可能导致严重的法律后果。使用本文档中的任何内容时,请确保您遵守所有适用的法律法规,并获...
【大模型与安全】第一弹:AI防口误指南之LLM输出安全实践
在数字化转型的浪潮中,大语言模型(以下统称LLM)已成为企业技术栈中不可或缺的智能组件,这种强大的AI技术同时也带来了前所未有的安全挑战。它输出的内容如同双面刃,一面闪耀着效率与创新的光芒,另一面却隐...
浅聊一下,大模型应用架构 | 工程研发的算法修养系列(二)
大模型应用架构基础AI应用演进概述人工智能应用的发展经历了多个关键阶段,每个阶段都代表着技术范式的重大转变。大语言模型基础大语言模型(LLM)作为现代AI应用的核心组件,具有独特的技术特性和能力边界,...
LLM自主学习的隐患
点击上方“蓝色字体”,选择 “设为星标”关键讯息,D1时间送达!大型语言模型借助新协议(如MCP、A2A)获得强大自主能力,深入企业核心业务流程,然而,其过度自主性(功能冗余、权限过大、模型黑箱、训练...
微软开源GeoVision Labeler零样本分类框架,攻克复杂遥感场景分类
传统监督学习方法严重依赖海量、高质量的标注数据,而“零样本学习”——即让模型在没有见过任何标注样本的情况下进行分类,成为行业研究的难点和方向。近日,来自微软的研究团队发表了一篇名为 《GeoVisio...
llama_Index SQL注入漏洞(CVE-2025-1750)POC及本地复现部署环境
免责声明:本公众号所发布的全部内容,包括但不限于技术文章、POC脚本、漏洞利用工具及相关测试环境,均仅限于合法的网络安全学习、研究和教学用途。所有人在使用上述内容时,应严格遵守中华人民共和国相关法律法...
48