2024年9月,一位安全研究员在测试Meta的Llama框架时,意外发现了一个严重的安全漏洞。这个漏洞不仅威胁到了人工智能系统的安全性,还可能引发更广泛的网络安全问题。今天,我们就来深入探讨这个漏洞的细节及其潜在影响。
一、Llama Stack组件的高危漏洞
Llama Stack组件存在一个高严重性安全漏洞,漏洞编号为CVE-2024-50050,CVSS得分为6.3,而供应链安全公司Snyk则给出了9.3的严重性评级。这个漏洞的成因在于Llama Stack使用了pickle作为套接字通信的序列化格式,这可能允许远程代码执行。Oligo安全研究员Avi Lumelsky指出,受影响的版本容易受到不可信数据的反序列化影响,攻击者可通过发送恶意数据来执行任意代码。
二、ZeroMQ套接字的暴露风险
在ZeroMQ套接字通过网络暴露的情况下,攻击者可向套接字发送精心制作的恶意对象来利用该漏洞,从而在主机上实现任意代码执行。这个漏洞的危险之处在于,攻击者可以远程控制受影响的系统,执行他们想要的任何代码。这种攻击方式不仅难以检测,而且一旦成功,可能会导致系统完全失控。
幸运的是,这个漏洞在2024年9月24日被负责任地披露后,Meta于10月10日在0.0.41版本中解决了这个问题,并在pyzmq中得到了补救。Meta通过切换到JSON格式,修复了与使用pickle相关的远程代码执行风险。这一修复措施不仅解决了当前的漏洞,还提高了系统的整体安全性。
三、人工智能框架中的反序列化漏洞
这并非人工智能框架中首次发现此类反序列化漏洞。2024年8月,Oligo详细介绍了TensorFlow的Keras框架中的“阴影漏洞”,该漏洞可能导致任意代码执行。此外,安全研究员Benjamin Flesch披露了OpenAI的ChatGPT爬虫中的一个严重缺陷,该缺陷可被利用来对任意网站发起分布式拒绝服务(DDoS)攻击。
这些漏洞的共同点在于,它们都涉及到对不可信数据的反序列化。攻击者可以通过发送恶意数据,利用这些漏洞在目标系统上执行任意代码。这种攻击方式不仅对人工智能系统构成威胁,还可能影响到依赖这些系统的其他应用程序和服务。
四、LLM的不安全编码实践
安全研究员Joe Leon指出,大型语言模型(LLM)正在帮助延续不安全的编码实践,这可能是因为它们接受了所有不安全编码实践的培训。Deep Instinct研究员Mark Vaitzman表示,LLM构成的网络威胁不是一场革命,而是一场演变,它们使网络威胁更好、更快、更准确。
随着人工智能技术的不断发展,LLM在许多领域得到了广泛应用。然而,这些模型的不安全编码实践可能会导致严重的安全问题。例如,LLM可能会生成包含恶意代码的输出,或者被攻击者利用来发起更复杂的攻击。
五、提升人工智能安全态势管理
人工智能安全公司HiddenLayer表示,用于检测计算图中恶意攻击的签名可以适应于跟踪和识别重复模式,称为重复子图,允许它们确定模型的架构谱系。了解组织内使用的模型家族可以提高对人工智能基础设施的整体认识,从而实现更好的安全态势管理。
随着技术的不断进步,我们如何更好地应对这些潜在的安全威胁,确保人工智能系统的安全性和可靠性?这不仅需要技术上的创新,还需要在管理和策略上进行调整。例如,企业可以加强对人工智能系统的监控和审计,及时发现和修复潜在的安全漏洞。同时,也需要加强对开发人员的安全培训,提高他们的安全意识和编码水平。
总之,人工智能技术的发展带来了许多机遇,但也带来了不少挑战。只有通过不断的努力和创新,我们才能更好地应对这些挑战,确保人工智能系统的安全性和可靠性。
原文始发于微信公众号(独角鲸网络安全实验室):紧急告警!Meta Llama框架漏洞,AI系统面临远程代码执行风险
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论