toutou使用他人的生成式 AI 平台的行为正变得越来越快、越来越隐蔽。
在 DeepSeek 模型公开发布仅几周后,复杂的“LLMjacking”操作就窃取了该模型的访问权限。
LLMjacking 与代理劫持和加密劫持类似,是指非法使用他人的计算资源来达到自己的目的。在这种情况下,个人会使用OpenAI、Anthropic 等公司开发的热门且价格昂贵的大型语言模型 (LLM)来生成图像、规避国家禁令等,同时将费用转嫁给其他人。
最近,Sysdig 的研究人员观察到LLMjacking 活动异常活跃,他们整合了 DeepSeek 开发的模型的访问权限。该公司于 12 月 26 日发布了 DeepSeek-V3 模型后,LLMjackers 仅用了几天时间就获得了被盗访问权限。同样,DeepSeek-R1 于 1 月 20 日发布,攻击者第二天就获得了该模型。
Sysdig 网络安全策略师 Crystal Morin 谈及 LLMjacking 时表示:“这不再只是一时的热潮。现在的攻击水平已经远远超过了我们去年 5 月首次发现时的水平。”
LLMjacking 的工作原理
随着规模的扩大,LLM 的使用成本可能会变得相当高昂。例如,根据 Sysdig 的粗略计算,全天候使用 GPT-4 可能会让账户持有人花费超过 50 万美元(不过目前 DeepSeek 的成本要低几个数量级)。
为了在不产生成本的情况下使用这些模型,攻击者会窃取云服务帐户的凭证或与特定 LLM 应用关联的应用程序编程接口 (API) 密钥。然后,他们使用脚本来验证这些脚本是否确实提供了对所需模型的访问权限。
接下来,他们将窃取的身份验证信息纳入“OAI”反向代理 (ORP)。ORP 连接用户和 LLM,提供一层操作安全性。
ORP 的前身(其名称由此而来)于 2023 年 4 月 11 日发布。此后,它多次被分叉和配置,以纳入新的隐身功能。较新的版本已纳入密码保护和混淆机制(例如,使其网站难以辨认,直到用户在浏览器中禁用 CSS)并取消提示日志记录,从而掩盖攻击者使用模型时的踪迹。代理受到 Cloudflare 隧道的进一步保护,该隧道会生成随机和临时域来屏蔽 ORP 的实际虚拟专用服务器 (VPS) 或 IP 地址。
随着人们使用非法的 LLM 访问权限来生成 NSFW 内容和其他类型的图像、不同恶意的脚本或日常内容(如学校论文),围绕 ORP 出现了新的 4chan 和 Discord 社区。而在俄罗斯、伊朗和中国等国家,普通人使用 ORP 来规避国家对 ChatGPT 的禁令。
LLMjacking 对账户持有者造成的成本
最终,有人将为生成 NSFW 图像和学校论文所使用的所有计算资源付费。
ORP 开发人员不一定希望这些账单太高,否则用户的异常活动很可能会引发警报。为了解决这个问题,他们根据与不同帐户关联的数十甚至数百组不同的凭证构建程序。例如,Sysdig 记录的一个 ORP 已整合了 55 个单独的 DeepSeek API 密钥,此外还整合了与其他人工智能 (AI) 应用程序关联的密钥。通过在许多应用程序中拥有许多密钥,ORP 可以执行负载平衡,尽可能分散非法使用。
但事情并不总是这样。
莫林回忆道:“我和一位 Twitter 用户聊过,他的个人 AWS 账户因 LLMjacking 而遭到入侵。一天早上他醒来后发现,他每月平均 2 美元的 AWS 账单(他主要用它来收发电子邮件)在两三个小时内飙升至 730 美元。”
没有人确切知道受害者的 AWS 凭证是如何被盗用的,但他已经面临 20,000 多美元的账单。他的幸运之处在于 AWS 中开启了成本警报(默认情况下不开启),这让他能够尽早发现匿名活动。
“他联系了 AWS 客户支持,询问发生了什么事,但他们也不知道。他确实几乎立即关闭了自己的账户,但费用报告有所延迟。我认为,最终费用大约为 10,000 到 20,000 美元,仅用于大约半天的使用,”莫林说。
AWS 最终还是救助了受害者。不过,莫林警告说:“考虑到一个人可能遭遇的后果,你可以想象类似的攻击在企业层面会造成怎样的后果。”
实践查询一下deepseek的泄漏
oioioioi
在这里小编提醒大家,要保护好自己的关键凭证,否则可能会被黑客批量薅羊毛
文中提到的批量利用工具
https://gitgud.io/khanon/oai-reverse-proxy
原文始发于微信公众号(OSINT研习社):LLM 劫持者正在批量窃取并利用你的deepseek
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论