LLM(大模型)发展以来,也了解了一些大模型应用安全相关的内容,也做过一些大模型安全类的题目,感觉挺有意思。
最近发现了PortSwigger上的LLM安全靶场,开个系列来记录记录。
题目介绍
#靶场地址
https://portswigger.net/web-security/all-labs#web-llm-attacks
考点:借用大模型自身能力API进行攻击
目标:通过LLM删除carlos用户
难度:有手就行
开始启动靶场环境
Write Up
进入靶场后,在Live Chat的菜单中,就可以与大模型对话
首先,为了方便理解,先让大模型说中文
然后看看这个大模型能干什么
发现这个大模型属于商城平台的客服大模型,可以重置密码,但是既然我们目标是为了删除用户,就得找找与数据库相关的突破口
看看对方有没有命令执行的权限
模型自身支持SQL命令,那么先尝试一下调用SQL能力
好家伙,这种就是严重的信息泄露了,不过这不是我们的目的
继续尝试让其直接删除用户
此时,自动弹出成功解决该靶场的提示。
总结
这个靶场的难度确实很低,核心就是问出大模型具备的能力,就是一个没有设防的大模型应用。
不过除了靶场本身的目标外,这个场景下确实是有很多其他类型的安全问题的,随便查看用户信息,直接执行SQL语句,甚至整个环节中我都没有登录过。
不过我想现实中应该不会真有把敏感功能直接暴露出去的应用吧。也不一定,可能一些内部DBA平台、运维平台在研发大模型应用进行提效的时候,会产生这类问题吧。
原文始发于微信公众号(飞羽技术工坊):当大模型可以执行SQL语句
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
- 左青龙
- 微信扫一扫
- 右白虎
- 微信扫一扫
评论