针对LLM风险的云安全策略调整

admin 2024年3月9日13:54:54评论4 views字数 2855阅读9分31秒阅读模式

针对LLM风险的云安全策略调整

2024年,LLM(large language model,大型语言模型)在企业环境中的广泛应用给CISO们带来了新的头疼问题。LLM自身就存在着网络安全挑战,特别是与数据泄露相关的问题。另外,云服务同样面临着其自身的威胁,尤其是云平台供应商有时会在未充分通知租户的情况下更改服务。当LLM的网络安全风险与云计算的这些问题交织时,必然会引发不利的后果。

01
多重云LLM与影子LLM带来的风险

目前最大的问题就是,当企业在其一个或多个云环境上托管多重LLM版本时,无论CISO和CIO如何管理和部署,他们都将不可避免地面临LLM相关的云安全风险。并且,无论企业是在云端托管LLM,还是在设备上或本地托管,他们所面临的威胁都几乎没有区别。即便一部分LLM运行在企业的本地服务器上,其余部分也很有可能需要在云端服务器上运行,特别是当这些模型的训练任务由外部供应商负责时。简而言之,无论CISO怎样安排,使用LLM都将面临广泛的云暴露风险。

这些讨论都集中在授权和许可的LLM版本上。即使企业制定了一系列政策和规则来限制或管理IT资源的使用,“影子IT”现象同样会发生在LLM的使用上。员工和部门负责人能够轻松地访问公共模型,例如ChatGPT和BingChat/Co-Pilot等。随后,他们可能会使用这些公共模型来创建图像、进行分析、撰写报告、编写代码,甚至做出一些商业决策。

当员工和承包商使用这些公共模型进行分析时,他们会向这些模型输入公司的内部数据。由于学习了输入的数据,这些公共模型可能会向提出相似问题的竞争对手泄露敏感的商业机密。

降低无意或故意输入专有信息、机密资料或关键非公开数据到LLM中而导致的未授权使用风险,是一项极具挑战性的任务。对此,云安全平台能够提供,尤其是在访问控制、用户认证、敏感数据的加密、数据防泄漏以及网络通信安全方面。此外,还有一些工具专门被设计用于数据发现,帮助对存储在结构化、非结构化及半结构化数据仓库中的敏感信息进行识别和定位。

如果组织对某些数据失去了控制、错误地授予了过多权限,或者对某些数据的存在毫不知情,那么这些数据是无法被有效保护的。因此,任何旨在缓解数据风险以及应对AI/LLM相关风险的策略中,数据发现都应作为首要步骤来执行。

无论是员工、承包商还是拥有特权的第三方,他们使用未经授权的影子LLM都会给组织带来极大的安全隐患,并且这种情况往往难以管理。当员工在公司的设备上工作时,现有工具可以识别员工何时访问了已知的未经授权LLM网站或应用,甚至能够阻止其访问行为。但是,如果员工在自己的设备上使用未授权的AI,公司则面临更加严峻的挑战,因为目前很难有效地分辨出哪些内容是AI生成的,哪些是用户自己创造的。

如今,企业主要依赖自己所授权使用的LLM中的安全控制,这是基于他们没有部署自家人员编写的LLM的情况下。对AI供应商及其产品进行恰当的第三方风险评估非常关键。随着AI面临威胁的不断变化,应对这些威胁的策略也需要相应地持续更新。目前,许多补救措施需要直接嵌入到AI/LLM的算法中,或者需要用户和企业政策来帮助识别威胁。

02
AI因素必须纳入到安全测试和决策中

在理想情况下,安全团队需要确保对AI的充分认识融入到每一项安全决策中,尤其是在实施零信任策略的环境下。传统的EDR、XDR以及MDR等工具主要针对常规IT基础架构和终端的安全威胁进行检测和应对。然而,这些工具并不适合于处理云端或本地部署的AI应用,包括LLM所面临的安全挑战。

如今的安全测试必须关注针对AI的特定漏洞,确保数据安全,并遵守数据保护法规。举例来说,提示劫持、有意破坏模型对齐以及数据泄漏等问题带来了新的风险与挑战。为了应对模型可能出现的漂移或偏差,对AI模型进行持续性的重新评价是非常必要的。

为了增强AI开发者与安全团队之间的合作,安全开发流程应贯穿于开发生命周期的每一个阶段,并重点关注AI安全问题。在进行风险评估时,需要特别注意AI所特有的问题,如数据泄漏以及偏见的产生。

03
仓促将LLM集成到云服务中给攻击者制造了机会

企业当前的紧迫感构成了一个重要的担忧。这种在众多开发模型的公司中盛行的急切心情,正鼓励着企业采取各种安全编码的捷径。这种紧迫感使得许多安全验证被搁置一边,使得工程师和数据研究人员在构建他们的GenAI(Generative AI,生成式人工智能)应用程序时几乎没有任何限制。为了能够尽可能快速地推出受欢迎的功能,越来越多的LLM正在被嵌入到公司的内部云服务中,比如数据库和计算资源等。

这些集成,通常是非最小权限或配置不当的,从暴露给外界的聊天界面直接创建了一个攻击向量,指向云环境的核心资产。简单来说,可以预见在几个月内就可能会出现通过GenAI界面发起的大规模攻击事件,这些攻击可能会导致账户被篡夺或未经授权地访问数据等问题。考虑到自然语言处理的非结构化特点以及GenAI应用所依赖的新框架和架构,现有的安全防护措施将无法充分防止此类提示注入攻击。

04
 LLM将成为攻击者的新兴目标

另一方面,对于LLM的担忧还包括,这些系统可能会成为攻击者极度关注的目标。无论是本地部署还是云端提供的GPU/AI计算节点都将成为攻击者的主要目标,他们企图免费占用这些资源,就像之前利用大量CPU资源和高性能终端GPU挖掘加密货币那样。攻击者将倾向于利用任何未加保护的基础设施来训练和运行他们的模型。此外,他们很可能会利用这些基础设施来挖掘从内部电子邮件、SharePoint和文件服务器中窃取的数据,用于高级钓鱼攻击活动。攻击者也会迅速找出组织依赖于哪些GPU/AI计算系统来执行关键业务功能,并找出方法在勒索软件或勒索活动中使其瘫痪。这种方式可能不是传统意义上的,因为许多方法都可以在不完全禁用这些环境的情况下减少它们的计算能力。

这里还存在一个不同的视角,即必须围绕企业中所有敏感的知识产权来设置保护措施。包括生成式AI在内的LLM实质上可能仅是倾向于产生误导性输出的基本转换器。如果它暴露了敏感数据,那么安全关注点应该是保护它正在训练的敏感数据,当然还需要保护应用本身的访问权限,就像任何SaaS产品一样。无论是在本地部署、芯片上还是在云端,同样的原则都适用。

数世点评

LLM在企业应用中的深入不仅标志着技术进步的新篇章,也暴露了安全领域的新漏洞。这一挑战要求我们不仅要在技术层面上进行创新,更需要在安全策略和执行上保持一步之先。

面对此类风险,企业必须超越传统的安全模型,采用更为动态和适应性的安全框架。同时,企业还需要加强对员工的培训和意识提升,确保他们了解使用LLM可能带来的风险,以及如何安全地利用这些工具。

只有做好全方位的措施,企业才能更好地利用LLM的潜力,同时确保自己资产和数据的安全。

* 本文为茉泠编译,图片均来源于网络,无法联系到版权持有者。如有侵权,请与后台联系,做删除处理。

— 【 THE END 】—

更多推荐

针对LLM风险的云安全策略调整
针对LLM风险的云安全策略调整
针对LLM风险的云安全策略调整

原文始发于微信公众号(数世咨询):针对LLM风险的云安全策略调整

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年3月9日13:54:54
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   针对LLM风险的云安全策略调整http://cn-sec.com/archives/2560126.html

发表评论

匿名网友 填写信息