研究发现 AI 代理 GPT-4 大语言模型 (LLM) 代理利用相关CVE的安全漏洞

admin 2024年4月21日18:48:43评论9 views字数 1390阅读4分38秒阅读模式

研究发现 AI 代理 GPT-4 大语言模型 (LLM) 代理利用相关CVE的安全漏洞

LLM客户端可以自主利用 One-day 漏洞

LLMs无论是在良性用途还是恶意用途方面,都变得越来越强大。随着能力的提高,研究人员对他们利用网络安全漏洞的能力越来越感兴趣。特别是,最近的工作对LLM代理自主入侵网站的能力进行了初步研究。然而,这些研究仅限于简单的漏洞。

研究发现 AI 代理 GPT-4 大语言模型 (LLM) 代理利用相关CVE的安全漏洞

在这项工作中LLM,我们展示了代理可以自主利用真实系统中的一天漏洞。为了证明这一点,我们收集了一个包含 15 个单日漏洞的数据集,其中包括在 CVE 描述中被归类为严重性的漏洞。当给出 CVE 描述时,GPT-4 能够利用 87% 的这些漏洞,而我们测试的所有其他模型(GPT-3.5,开源LLMs)和开源漏洞扫描器(ZAP 和 Metasploit)的这一比例为 0%。幸运的是,我们的 GPT-4 代理需要 CVE 描述才能实现高性能:如果没有描述,GPT-4 只能利用 7% 的漏洞。我们的研究结果引发了对高能力LLM代理的广泛部署的质疑。

伊利诺伊大学厄巴纳-香槟分校最近的研究证明了人工智能代理的能力,特别是那些利用 OpenAI 的 GPT-4 大语言模型 (LLM) 的代理,可以通过分析 CVE 公告来自主利用现实世界的安全漏洞。

该研究重点关注开源软件中的 15 个已知漏洞,GPT-4 成功利用了其中 87% 的漏洞。这超越了其他模型和漏洞扫描器的性能,展示了 GPT-4 在识别和利用严重严重漏洞方面的先进功能。每次攻击成功利用 GPT-4 的估计成本为 8.80 美元,使其成为应对网络威胁的经济高效的选择。然而,GPT-4 的有效性依赖于对 CVE 描述的访问,这引发了人们对广泛部署此类强大 AI 代理相关潜在风险的担忧。尽管 GPT-4 的成功率很高,但它也有局限性,包括在评估代码时出现误报和误报。建议组织实施严格的安全最佳实践,以降低被人工智能代理利用漏洞进行黑客攻击的风险。GPT-4 在利用各种类型的漏洞方面表现出了很高的成功率,例如网站、容器  和 Python 包漏洞。代理代码简洁,使其成为一种经济高效的网络攻击工具。研究还显示,当拒绝访问 CVE 描述时,GPT-4 的成功率下降至 7%,这凸显了透明信息共享在网络安全中的重要性 。

参考文章:

GPT-4 可以通过读取 CVE 来利用漏洞 -

https://arxiv.org/pdf/2404.08144.pdf

OpenAI 的 GPT-4 可以通过阅读安全建议来利用真正的漏洞-https://www.theregister.com/2024/04/17/gpt4_can_exploit_real_vulnerabilities/

研究发现 AI 代理 GPT-4 成功利用现实世界的安全漏洞 -

https://nquiringminds.com/cybernews/ai-agent-gpt4-successfully-exploits-realworld-security-vulnerabilities-study-finds/

UIUC 的研究人员揭示了 GPT-4 自主利用现实世界漏洞的能力 -

https://multiplatform.ai/researchers-from-uiuc-reveal-gpt-4s-capability-to-autonomously-exploit-real-world-vulnerabilities/

原文始发于微信公众号(Ots安全):研究发现 AI 代理 GPT-4 大语言模型 (LLM) 代理利用相关CVE的安全漏洞

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年4月21日18:48:43
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   研究发现 AI 代理 GPT-4 大语言模型 (LLM) 代理利用相关CVE的安全漏洞http://cn-sec.com/archives/2677550.html

发表评论

匿名网友 填写信息