关键词
网络攻击
新的研究表明,威胁行为者正在利用暴露的云凭据在凭据泄露后几分钟内劫持企业 AI 系统。最近的事件表明,攻击者可以在 19 分钟内 攻陷大型语言模型 (LLM)基础设施。
这种被称为 LLMjacking 的攻击媒介针对非人类身份(NHI)——API 密钥、服务帐户和机器凭证——以绕过传统的安全控制并将被盗的生成性 AI 访问权限货币化。
LLMjacking 杀伤链
安全公司 Entro Labs 最近在GitHub、Pastebin 和 Reddit上公开了功能性 AWS 密钥,以研究攻击者的行为。
他们的研究发现了系统的四阶段攻击模式:
凭证收集:自动机器人使用Python 脚本扫描公共存储库和论坛以检测有效凭证,其中 44% 的 NHI 通过代码存储库和协作平台暴露。
快速验证:攻击者在暴露后的 9-17 分钟内执行初始 API 调用(如 GetCostAndUsage)来评估账户价值,避免可预测的调用(如 GetCallerIdentity)来逃避检测。
入侵者通过 AWS Bedrock 执行 GetFoundationModelAvailability 请求,以对可访问的 LLM(包括 Anthropic 的 Claude 和 Amazon Titan)进行分类,从而映射可用的攻击面。
漏洞利用:自动 InvokeModel 尝试针对受感染的端点,研究人员观察到跨实验密钥每小时发生 1,200 多次未经授权的推理尝试。
Storm-2139 网络犯罪组织最近利用这种方法对付 Microsoft Azure AI 客户,窃取 API 密钥来生成暗网内容。取证日志显示攻击者:
-
利用 Python 的请求库进行凭证验证
-
使用 aws s3 ls 命令识别 AI/ML 存储桶
-
尝试基础:使用精心设计的提示来绕过内容过滤器的 InvokeModel
Entro 的模拟入侵表明攻击者将自动脚本与手动侦察相结合——63% 的初始访问使用 Python SDK,而 37% 使用 Firefox 用户代理通过 AWS 控制台进行交互式探索。
未受控制的 LLMjacking 会带来生存风险:
-
成本利用:一个受到损害的具有 Bedrock 访问权限的 NHI 每天可能会产生 46,000 美元的未经授权的推理费用。
-
数据泄露:在观察到的 22% 的事件中,攻击者泄露了模型配置和训练数据元数据。
-
声誉损害:微软 2025 年第一季度的漏洞导致威胁行为者使用被盗的 Azure OpenAI密钥生成了 14,000 多张深度伪造图像。
缓解策略
-
实时检测和监控 NHI
-
实施自动密钥轮换 -
强制最低权限 -
监控异常 API 活动 -
对开发人员进行安全 NHI 管理培训
-
由于攻击者可以在不到 20 分钟的时间内实施泄漏,实时秘密扫描和自动轮换不再是可选的保护措施,而是 LLM 时代的关键生存机制。
来源:https://cybersecuritynews.com/hackers-hijacking-access-to-cloud-based-ai-models/
END
原文始发于微信公众号(安全圈):【安全圈】最新黑产技术曝光,只需19分钟即可劫持AI大模型
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论