当大模型可以执行SQL语句

admin 2024年12月8日00:27:27评论6 views字数 653阅读2分10秒阅读模式

LLM(大模型)发展以来,也了解了一些大模型应用安全相关的内容,也做过一些大模型安全类的题目,感觉挺有意思。

最近发现了PortSwigger上的LLM安全靶场,开个系列来记录记录。

题目介绍

#靶场地址https://portswigger.net/web-security/all-labs#web-llm-attacks
当大模型可以执行SQL语句

考点:借用大模型自身能力API进行攻击

目标:通过LLM删除carlos用户

难度:有手就行

开始启动靶场环境

Write Up

进入靶场后,在Live Chat的菜单中,就可以与大模型对话

当大模型可以执行SQL语句

首先,为了方便理解,先让大模型说中文

当大模型可以执行SQL语句

然后看看这个大模型能干什么

当大模型可以执行SQL语句

发现这个大模型属于商城平台的客服大模型,可以重置密码,但是既然我们目标是为了删除用户,就得找找与数据库相关的突破口

看看对方有没有命令执行的权限

当大模型可以执行SQL语句

模型自身支持SQL命令,那么先尝试一下调用SQL能力

当大模型可以执行SQL语句

好家伙,这种就是严重的信息泄露了,不过这不是我们的目的

继续尝试让其直接删除用户

当大模型可以执行SQL语句

此时,自动弹出成功解决该靶场的提示。

当大模型可以执行SQL语句

总结

这个靶场的难度确实很低,核心就是问出大模型具备的能力,就是一个没有设防的大模型应用。

不过除了靶场本身的目标外,这个场景下确实是有很多其他类型的安全问题的,随便查看用户信息,直接执行SQL语句,甚至整个环节中我都没有登录过。

不过我想现实中应该不会真有把敏感功能直接暴露出去的应用吧。也不一定,可能一些内部DBA平台、运维平台在研发大模型应用进行提效的时候,会产生这类问题吧。

原文始发于微信公众号(飞羽技术工坊):当大模型可以执行SQL语句

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年12月8日00:27:27
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   当大模型可以执行SQL语句https://cn-sec.com/archives/3480946.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息