最新研究揭示,网络攻击者正利用暴露的云凭证,快速劫持企业的人工智能(AI)系统。这种攻击方式被称为LLMjacking,主要针对非人类身份(NHIs),如API密钥、服务账户和机器凭证,以绕过传统安全控制并利用被盗的生成式AI访问权限进行非法牟利。
安全公司Entro Labs的研究发现,攻击者利用自动化的机器人扫描公共代码库和论坛,使用Python脚本检测有效凭证。一旦凭证被暴露,攻击者在9至17分钟内进行初步的API调用,如GetCostAndUsage,以评估账户价值,同时避免使用可预测的调用如GetCallerIdentity来逃避检测。
在模型枚举阶段,入侵者通过AWS Bedrock执行GetFoundationModelAvailability请求,以编目可访问的大型语言模型(LLM),包括Anthropic的Claude和Amazon Titan。最后,在利用阶段,攻击者自动尝试InvokeModel,针对受 compromise的端点进行攻击,研究人员观察到每小时有1200多次未经授权的推理尝试。
Storm-2139网络犯罪集团最近利用这种方法针对Microsoft Azure AI客户,窃取API密钥以生成暗网内容。微软在2025年第一季度的泄露事件中,威胁行为者使用被盗的Azure OpenAI密钥生成了14,000多张深度伪造图像。
LLMjacking带来的风险包括成本利用、数据泄露和声誉损害。一个被compromise的NHI账户每天可能产生高达46,000美元的未授权推理费用。在22%的观察事件中,攻击者还泄露了模型配置和训练数据元数据。微软的泄露事件中,威胁行为者生成了大量深度伪造图像,对公司的声誉造成了严重影响。
为了应对这种威胁,企业需要采取一系列措施,包括实时检测和监控NHIs、实施自动密钥轮换、执行最小权限原则、监控异常API活动以及教育开发人员安全地管理NHIs。在攻击者能够在不到20分钟内利用泄露的情况下,实时密钥扫描和自动轮换不再是可选的安全措施,而是确保企业在LLM时代生存的关键机制。
原文始发于微信公众号(看雪学苑):黑客利用暴露的云凭证,仅19分钟劫持AI大模型
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
点赞
https://cn-sec.com/archives/3801051.html
复制链接
复制链接
-
左青龙
- 微信扫一扫
-
-
右白虎
- 微信扫一扫
-
评论