大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序

admin 2025年4月24日16:47:47评论1 views字数 4761阅读15分52秒阅读模式
大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序

大模型10大网络安全威胁及防范策略

OWASP发布的《大语言模型人工智能应用Top10安全威胁2025》,大语言模型人工智能应用中存在的十大安全风险,相比2023版有一些变化,10大安全威胁如下:
1、提示词注入用户通过特殊输入改变模型行为或输出,可能导致敏感信息泄露、内容被操纵等问题,分直接和间接注入两种类型。 
2、敏感信息泄露:LLM在应用中可能暴露敏感数据,如个人信息、商业机密等,可通过数据清理、访问控制等手段防范。 
3、供应链风险:LLM供应链易受攻击,涉及第三方组件漏洞、许可风险等,需审核数据源、进行漏洞扫描来保障安全。 
4、数据与模型投毒:在数据处理阶段操控数据,损害模型安全性和性能,可利用工具验证数据、审查供应商进行防范。
5、不当输出处理:LLM输出未经验证就传递,可能引发多种安全漏洞,要对输出进行验证和编码处理。
6、过度授权:LLM异常行为等导致系统执行破坏性操作,源于功能、权限、自主性方面的问题,需限制扩展和权限防范。
7、系统提示泄露:系统提示中的敏感信息被发现会带来风险,应分离敏感数据,避免依赖系统提示控制行为。
8、向量与嵌入漏洞:RAG技术中向量与嵌入机制存在风险,如未授权访问、数据投毒等,要实施访问控制和数据验证。 
9、信息误导:LLM生成错误或误导性信息,会引发安全、声誉和法律问题,可通过检索增强、人工监督等策略缓解。
10、无限资源消耗:攻击者利用漏洞让LLM过度消耗资源,造成多种危害,可通过输入验证、速率限制等方式防范。

OWASP 大语言模型人工智能应用Top 10安全威胁(2025)

大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序

LLM01:2025 提示词注入2025 Prompt Injection

LLM02:2025 敏感信息披露(2025 Sensitive Information Disclosure

LLM03:2025 供应链(2025 Supply Chain

LLM04: 2025 数据和模型投毒(2025 Data and Model Poisoning

LLM05:2025 不当输出处理 (2025 Improper Output Handling

LLM06:2025 过度授权(2025 Excessive Agency

LLM07:2025 系统提示泄露(2025 System Prompt Leakage

LLM08:2025 向量和嵌入漏洞(2025 Vector and Embedding Weaknesses

LLM09:2025 信息误导(2025 Misinformation

LLM10:2025 无限资源消耗 (2025 Unbounded Consumption

OWASP Top 10 LLM-2025安全威胁与防范策略

威胁类型
示例场景
防范策略
提示词注入
  • 直接提示词注入

  • 间接提示词注入

  • 非故意注入

  • 有意模型影响

  • 代码注入

  • 负载分割

  • 多模态注入

  • 对抗性后缀

  • 多语言/混淆攻击

  • 约束模型行为
  • 定义格式
  • 输入输出过滤
  • 最小权限访问
  • 人工审批高危动作
  • 隔离外部内容
  • 红蓝对抗
敏感信息泄露
  • 个人信息泄露

  • 专有算法暴露

  • 商业机密数据泄漏

  • 数据清洗
  • 访问控制
供应链
  • 传统第三方组件漏洞

  • 许可风险

  • 过时或已弃用模型

  • 脆弱的预训练模型

  • 弱模型溯源

  • 弱LoRA适配器

  • 利用协作开发流程

  • 设备端LLM供应链风险

  • 模糊的条款与数据隐私政策

  • 组件漏洞扫描
  • 许可证审计
  • 使用可验证来源模型
  • 对供应模型和数据进行安全测评
  • 加密端侧模型
数据与模型投毒
  • 训练引入有害数据

  • 训练恶意内容

  • 无意注入敏感或专有信息

  • 未验证的数据

  • 资源访问限制不足

  • 验证数据合法性
  • 数据集版本控制
  • 监测训练损失
  • 红蓝对抗
  • RAG增强
不当输出处理
  • 程代码执行

  • XSS攻击

  • SQL注入

  • 径遍历漏洞

  • 鱼攻击

  • 模型响应验证
  • 模型输出编码
  • 内容安全策略
  • 日志和监控
过度授权
  • 功能过多

  • 权限过高

  • 自主性过强

  • 最小化扩展
  • 要求用户审批
  • 完全中介
  • 清理输入输出
系统提示泄露
  • 敏感功能暴露

  • 内部规则暴露

  • 过滤条件暴露

  • 权限与角色结构暴露

  • 敏感数据分离
  • 严格行为控制
  • 外挂防护措施
  • 关键安全控制
向量与嵌入漏洞
  • 未授权访问与数据泄漏

  • 跨上下文信息泄露与联邦知识冲突

  • 嵌入反演攻击

  • 数据投毒攻击

  • 行为改变

  • 权限与访问控制
  • 数据来源质量验证
  • 数据分类审查
  • 监控日志记录
信息误导
  • 事实性误导

  • 无依据的主张

  • 专业能力的错误呈

  • 不安全的代码生成

  • 增强检索生成
  • 模型微调
  • 交叉验证
  • AI标识提醒
  • 培训用户
无限资源消耗
  • 可变长度输入泛滥

  • 钱包拒绝服

  • 持续输入溢

  • 资源密集型查询

  • API模型提取

  • 功能模型复

  • 侧信道攻击

  • 输入验证
  • 速率限制
  • 访问控制
  • AI水印
  • 超时与节流

通过Top 10安全威胁在应用数据流过程中的位置进行安全措施建设

大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
通过这个图可以直观的看到Top10的安全威胁在应用数据流过程中的影响位置,同时基于数据流中存在的安全威胁,就可以进行针对性的点对点防护措施建设,对应防护策略有一些是可以用商用产品解决,还有部分是可以针对借用开源工具进行安全防护建设的,比如:NVIDIA NeMo Guardrails框架工具(刚好项目中用过)。

以下简单看一下可以实现的能力:

大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序

输入防护措施(Input rails):应用于用户输入的内容;输入防护措施可以拒绝输入(停止任何进一步的处理)或改变输入(例如,掩盖可能敏感的数据,或者重新措辞)。

对话防护措施(Dialog rails):影响对话的发展以及如何提示大型语言模型(LLM);对话防护措施作用于规范化形式的消息,并决定是否应该执行某个动作,是否应该调用LLM来生成下一步或响应,或者是否应该使用预定义的响应。

检索防护措施(Retrieval rails):在检索增强生成(RAG)场景中应用于检索到的内容块;检索防护措施可以拒绝某个内容块,防止其被用来提示LLM,或者改变相关的内容块(例如,掩盖可能敏感的数据)。

执行防护措施(Execution rails):应用于需要调用的自定义动作(即工具)的输入/输出。

输出防护措施(Output rails):应用于LLM生成的输出;输出防护措施可以拒绝输出,防止其被返回给用户或改变它(例如,删除敏感数据)。

对此除了建设之外,还有一些开源的安全评估工具,比如Garak,Garak,全称 Generative AI Red-teaming & Assessment Kit,是一种由 NVIDIA 开发的开源工具,专注于扫描 LLM 的漏洞。

此项详细内容可以查看官网链接:
https://docs.nvidia.com/nemo/guardrails/

OWASP LLM Top 10对比(2023版和2025版)

OWASP Top 10 for LLM Applications 2025
OWASP Top 10 for LLM Applications 2023
LLM01:2025 提示词注入(2025 Prompt Injection)
LLM01:提示词注入(Prompt Injection)
LLM02:2025 敏感信息披露(2025 Sensitive Information Disclosure)
LLM02:不安全输出(Insecure Output Handling)
LLM03:2025 供应链(2025 Supply Chain)
LLM03:训练数据投毒(Training Data Poisoning)
LLM04: 2025 数据和模型投毒(2025 Data and Model Poisoning)
LLM04:模型拒绝服务(Model Denial of Service)
LLM05:2025 不当输出处理 (2025 Improper Output Handling)
LLM05:供应链漏洞(Supply Chain Vulnerabilities)
LLM06:2025 过度授权(2025 Excessive Agency)
LLM06:敏感信息泄露(Sensitive Information Disclosure)
LLM07:2025 系统提示泄露(2025 System Prompt Leakage)
LLM07:不安全的插件设计(Insecure Plugin Design)
LLM08:2025 向量和嵌入漏洞(2025 Vector and Embedding Weaknesses)
LLM08:过度代理(Excessive Agency)
LLM09:2025 信息误导(2025 Misinformation)
LLM09:过度依赖(Overreliance)
LLM10:2025 无限资源消耗 (2025 Unbounded Consumption)
LLM010:模型窃取(Model Theft)

对比发布的2025版和2023版的 LLM Top 10安全威胁,对于Top 10威胁程度的变化和新增安全威胁,比如:LLM01:提示词注入风险依然是Top 1的最大威胁,敏感信息泄露由2023版的top 6升到2025版的Top2等。同时也新增几项安全风险,比如系统提示泄露、向量和嵌入漏洞及无限资源消耗等安全威胁,随着人工智能的发展,安全威胁也在不断的变化,我们需要不断了解新的技术方向,最大程度的降低安全威胁的影响

报告节选

大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序
安全研究员Matt Keeley近期演示了人工智能如何在公开概念验证(PoC)攻击代码发布前,就成功生成针对关键漏洞的有效利用程序。这一突破可能彻底改变漏洞研究领域的现状。
Keeley使用GPT-4为CVE-2025-32433开发出功能性攻击程序,该漏洞是Erlang/OTP SSH组件中的高危漏洞,CVSS评分达到满分10.0。这一成果展示了AI在网络安全领域日益增长的能力。
"GPT-4不仅能理解CVE描述,还能定位修复提交、比对旧版代码、发现差异、找到漏洞位置,甚至编写出概念验证代码。当代码不工作时,它还能自行调试修复。"Keeley在2025年4月17日发布的详细博文中解释道。

大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序

01

漏洞技术细节分析

该漏洞于2025年4月16日披露,影响Erlang/OTP的SSH服务器实现,允许攻击者无需认证即可远程执行代码。该高危缺陷源于SSH协议消息在连接初期的处理不当,使得攻击者能在受影响系统上以提升权限执行任意代码。
Keeley的研究始于注意到Horizon3.ai研究人员提及已创建但未公开PoC的推文。仅凭这条有限信息,他引导GPT-4分析漏洞。AI系统性地完成了以下工作:
1. 定位不同版本的代码
2. 创建比对漏洞代码与修复代码的工具
3. 确定漏洞的确切成因
4. 生成攻击代码
5. 调试修复代码直至可用

02

网络安全格局面临重构

"这引发了一个严峻问题:AI能以多快速度协助漏洞研究,甚至自动化整个流程。几年前,这个过程需要专业的Erlang知识和数小时手动调试。如今,只需一下午的正确提示就能完成。"Keeley指出。

安全专家对此既兴奋又担忧。虽然AI使安全研究更易获得,但也可能降低恶意分子开发攻击程序的门槛。漏洞披露仅一天后,就有多名研究人员开发出有效攻击程序,其中Platform Security已在GitHub发布其AI辅助的PoC。

受影响Erlang/OTP版本(OTP-27.3.2及更早版本、OTP-26.2.5.10及更早版本、OTP-25.3.2.19及更早版本)已在新版本中修复。使用Erlang/OTP SSH服务器的组织应立即升级至修复版本:OTP-27.3.3、OTP-26.2.5.11或OTP-25.3.2.20。

该案例凸显AI正在重塑网络安全格局。随着这些工具日益成熟,漏洞披露与攻击程序开发的时间窗口持续缩小,迫使组织必须加快补丁实施速度。

声明:除发布的文章无法追溯到作者并获得授权外,我们均会注明作者和文章来源。如涉及版权问题请及时联系我们,我们会在第一时间删改,谢谢!文章来源:FreeBuf

大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序

原文始发于微信公众号(e安在线):大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年4月24日16:47:47
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   大模型10大网络安全威胁及防范策略 | ChatGPT在公开漏洞利用代码发布前成功生成CVE有效攻击程序https://cn-sec.com/archives/3995096.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息