最新黑产技术曝光,只需19分钟即可劫持AI大模型

admin 2025年3月5日19:59:41评论16 views字数 1254阅读4分10秒阅读模式

最新黑产技术曝光,只需19分钟即可劫持AI大模型

关键词

网络攻击

最新黑产技术曝光,只需19分钟即可劫持AI大模型

新的研究表明,威胁行为者正在利用暴露的云凭据在凭据泄露后几分钟内劫持企业 AI 系统。最近的事件表明,攻击者可以在 19 分钟内 攻陷大型语言模型 (LLM)基础设施。

这种被称为 LLMjacking 的攻击媒介针对非人类身份(NHI)——API 密钥、服务帐户和机器凭证——以绕过传统的安全控制并将被盗的生成性 AI 访问权限货币化。

LLMjacking 杀伤链

安全公司 Entro Labs 最近在GitHub、Pastebin 和 Reddit上公开了功能性 AWS 密钥,以研究攻击者的行为。

他们的研究发现了系统的四阶段攻击模式:

最新黑产技术曝光,只需19分钟即可劫持AI大模型

凭证收集:自动机器人使用Python 脚本扫描公共存储库和论坛以检测有效凭证,其中 44% 的 NHI 通过代码存储库和协作平台暴露。

快速验证:攻击者在暴露后的 9-17 分钟内执行初始 API 调用(如 GetCostAndUsage)来评估账户价值,避免可预测的调用(如 GetCallerIdentity)来逃避检测。

最新黑产技术曝光,只需19分钟即可劫持AI大模型
不同暴露位置的暴露秘密的平均访问时间
模型枚举:

入侵者通过 AWS Bedrock 执行 GetFoundationModelAvailability 请求,以对可访问的 LLM(包括 Anthropic 的 Claude 和 Amazon Titan)进行分类,从而映射可用的攻击面。

漏洞利用:自动 InvokeModel 尝试针对受感染的端点,研究人员观察到跨实验密钥每小时发生 1,200 多次未经授权的推理尝试。

Storm-2139 网络犯罪组织最近利用这种方法对付 Microsoft Azure AI 客户,窃取 API 密钥来生成暗网内容。取证日志显示攻击者:

  • 利用 Python 的请求库进行凭证验证

  • 使用 aws s3 ls 命令识别 AI/ML 存储桶

  • 尝试基础:使用精心设计的提示来绕过内容过滤器的 InvokeModel

Entro 的模拟入侵表明攻击者将自动脚本与手动侦察相结合——63% 的初始访问使用 Python SDK,而 37% 使用 Firefox 用户代理通过 AWS 控制台进行交互式探索。

未受控制的 LLMjacking 会带来生存风险:

  • 成本利用:一个受到损害的具有 Bedrock 访问权限的 NHI 每天可能会产生 46,000 美元的未经授权的推理费用。

  • 数据泄露:在观察到的 22% 的事件中,攻击者泄露了模型配置和训练数据元数据。

  • 声誉损害:微软 2025 年第一季度的漏洞导致威胁行为者使用被盗的 Azure OpenAI密钥生成了 14,000 多张深度伪造图像。

缓解策略

  • 实时检测和监控 NHI

  • 实施自动密钥轮换
  • 强制最低权限
  • 监控异常 API 活动
  • 对开发人员进行安全 NHI 管理培训

  • 由于攻击者可以在不到 20 分钟的时间内实施泄漏,实时秘密扫描和自动轮换不再是可选的保护措施,而是 LLM 时代的关键生存机制。

来源:https://cybersecuritynews.com/hackers-hijacking-access-to-cloud-based-ai-models/

  END  

原文始发于微信公众号(安全圈):【安全圈】最新黑产技术曝光,只需19分钟即可劫持AI大模型

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年3月5日19:59:41
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   最新黑产技术曝光,只需19分钟即可劫持AI大模型https://cn-sec.com/archives/3801188.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息