![大模型10大网络安全威胁及防范策略]()
OWASP发布的《大语言模型人工智能应用Top10安全威胁2025》,大语言模型人工智能应用中存在的十大安全风险,相比2023版有一些变化,10大安全威胁如下:
1、提示词注入:用户通过特殊输入改变模型行为或输出,可能导致敏感信息泄露、内容被操纵等问题,分直接和间接注入两种类型。
2、敏感信息泄露:LLM在应用中可能暴露敏感数据,如个人信息、商业机密等,可通过数据清理、访问控制等手段防范。
3、供应链风险:LLM供应链易受攻击,涉及第三方组件漏洞、许可风险等,需审核数据源、进行漏洞扫描来保障安全。
4、数据与模型投毒:在数据处理阶段操控数据,损害模型安全性和性能,可利用工具验证数据、审查供应商进行防范。
5、不当输出处理:LLM输出未经验证就传递,可能引发多种安全漏洞,要对输出进行验证和编码处理。
6、过度授权:LLM异常行为等导致系统执行破坏性操作,源于功能、权限、自主性方面的问题,需限制扩展和权限防范。
7、系统提示泄露:系统提示中的敏感信息被发现会带来风险,应分离敏感数据,避免依赖系统提示控制行为。
8、向量与嵌入漏洞:RAG技术中向量与嵌入机制存在风险,如未授权访问、数据投毒等,要实施访问控制和数据验证。
9、信息误导:LLM生成错误或误导性信息,会引发安全、声誉和法律问题,可通过检索增强、人工监督等策略缓解。
10、无限资源消耗:攻击者利用漏洞让LLM过度消耗资源,造成多种危害,可通过输入验证、速率限制等方式防范。
OWASP 大语言模型人工智能应用Top 10安全威胁(2025)
LLM01:2025 提示词注入(2025 Prompt Injection)
LLM02:2025 敏感信息披露(2025 Sensitive Information Disclosure)
LLM03:2025 供应链(2025 Supply Chain)
LLM04: 2025 数据和模型投毒(2025 Data and Model Poisoning)
LLM05:2025 不当输出处理 (2025 Improper Output Handling)
LLM06:2025 过度授权(2025 Excessive Agency)
LLM07:2025 系统提示泄露(2025 System Prompt Leakage)
LLM08:2025 向量和嵌入漏洞(2025 Vector and Embedding Weaknesses)
LLM09:2025 信息误导(2025 Misinformation)
LLM10:2025 无限资源消耗 (2025 Unbounded Consumption)
OWASP Top 10 LLM-2025安全威胁与防范策略
通过Top 10安全威胁在应用数据流过程中的位置进行安全措施建设
通过这个图可以直观的看到Top 10的安全威胁在应用数据流过程中的影响位置,同时基于数据流中存在的安全威胁,就可以进行针对性的点对点防护措施建设,对应防护策略有一些是可以用商用产品解决,还有部分是可以针对借用开源工具进行安全防护建设的,比如:NVIDIA NeMo Guardrails框架工具(刚好项目中用过)。
以下简单看一下可以实现的能力:
输入防护措施(Input rails):应用于用户输入的内容;输入防护措施可以拒绝输入(停止任何进一步的处理)或改变输入(例如,掩盖可能敏感的数据,或者重新措辞)。
对话防护措施(Dialog rails):影响对话的发展以及如何提示大型语言模型(LLM);对话防护措施作用于规范化形式的消息,并决定是否应该执行某个动作,是否应该调用LLM来生成下一步或响应,或者是否应该使用预定义的响应。
检索防护措施(Retrieval rails):在检索增强生成(RAG)场景中应用于检索到的内容块;检索防护措施可以拒绝某个内容块,防止其被用来提示LLM,或者改变相关的内容块(例如,掩盖可能敏感的数据)。
执行防护措施(Execution rails):应用于需要调用的自定义动作(即工具)的输入/输出。
输出防护措施(Output rails):应用于LLM生成的输出;输出防护措施可以拒绝输出,防止其被返回给用户或改变它(例如,删除敏感数据)。
对此除了建设之外,还有一些开源的安全评估工具,比如Garak,Garak,全称 Generative AI Red-teaming & Assessment Kit,是一种由 NVIDIA 开发的开源工具,专注于扫描 LLM 的漏洞。
OWASP LLM Top 10对比(2023版和2025版)
OWASP Top 10 for LLM Applications 2025
|
OWASP Top 10 for LLM Applications 2023
|
LLM01:2025 提示词注入(2025 Prompt Injection)
|
LLM01:提示词注入(Prompt Injection)
|
LLM02:2025 敏感信息披露(2025 Sensitive Information Disclosure)
|
LLM02:不安全输出(Insecure Output Handling)
|
LLM03:2025 供应链(2025 Supply Chain)
|
LLM03:训练数据投毒(Training Data Poisoning)
|
LLM04: 2025 数据和模型投毒(2025 Data and Model Poisoning)
|
LLM04:模型拒绝服务(Model Denial of Service)
|
LLM05:2025 不当输出处理 (2025 Improper Output Handling)
|
LLM05:供应链漏洞(Supply Chain Vulnerabilities)
|
LLM06:2025 过度授权(2025 Excessive Agency)
|
LLM06:敏感信息泄露(Sensitive Information Disclosure)
|
LLM07:2025 系统提示泄露(2025 System Prompt Leakage)
|
LLM07:不安全的插件设计(Insecure Plugin Design)
|
LLM08:2025 向量和嵌入漏洞(2025 Vector and Embedding Weaknesses)
|
LLM08:过度代理(Excessive Agency)
|
LLM09:2025 信息误导(2025 Misinformation)
|
|
LLM10:2025 无限资源消耗 (2025 Unbounded Consumption)
|
|
对比发布的2025版和2023版的 LLM Top 10安全威胁,对于Top 10威胁程度的变化和新增安全威胁,比如:LLM01:提示词注入风险依然是Top 1的最大威胁,敏感信息泄露由2023版的top 6升到2025版的Top2等。同时也新增几项安全风险,比如系统提示泄露、向量和嵌入漏洞及无限资源消耗等安全威胁,随着人工智能的发展,安全威胁也在不断的变化,我们需要不断了解新的技术方向,最大程度的降低安全威胁的影响
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
点赞
https://cn-sec.com/archives/3992846.html
复制链接
复制链接
-
左青龙
- 微信扫一扫
-
-
右白虎
- 微信扫一扫
-
评论