恶意软件藏身AI模型,针对阿里巴巴AI实验室用户发起攻击

admin 2025年5月29日10:14:44评论16 views字数 2240阅读7分28秒阅读模式
2025年5月28日hackread报道称,ReversingLabs发现黑客将恶意软件隐藏在PyPI平台上的人工智能(AI)和机器学习(ML)模型中,专门针对阿里巴巴AI实验室的用户。研究发现,恶意软件包伪装成阿里云AI服务的Python SDK,实际包含信息窃取程序,利用PyTorch模型中的Pickle文件来执行恶意代码。这些软件包自5月19日上线不到24小时,已被下载约1600次。Pickle文件因其能够存储和加载Python数据,容易被用于注入恶意代码。此次攻击可能源自钓鱼邮件或社交工程手段,主要目标为中国开发者。ReversingLabs警告,随着AI和ML在软件中的广泛应用,开发者和安全工具需要加强对所有文件类型的安全防护。
恶意软件藏身AI模型,针对阿里巴巴AI实验室用户发起攻击

概况

ReversingLabs在PyPI发现了隐藏在AI/ML 模型中的新型恶意软件,这些恶意软件针对的是阿里巴巴AI实验室的用户。了解攻击者如何利用Pickle文件以及软件供应链面临的日益严重的威胁。

ReversingLabs (RL) 的网络安全专家发现了网络犯罪分子传播有害软件的新技巧,这次他们将软件隐藏在人工智能 ( AI ) 和机器学习 ( ML ) 模型中。 

研究人员在Python开发人员查找和共享代码的流行平台Python软件包索引 ( PyPI ) 上发现了三个危险软件包,它们类似于阿里云 AI 实验室服务的Python SDK ,并针对阿里巴巴 AI 实验室的用户。

阿里巴巴人工智能实验室是阿里巴巴集团内部的一项重要投资和研究计划,也是阿里云人工智能和数据智能服务(即阿里巴巴达摩院)的一部分。

人工智能工具中隐藏着新的软件威胁

ReversingLabs逆向工程师Karlo Zanki 在与 Hackread.com分享的研究中解释说,这些恶意软件包没有真正的aliyun-ai-labs-snippets-sdkAIai-labs-snippets-sdk功能aliyun-ai-labs-sdk

博客文章透露:“ai-labs-snippets-sdk 软件包占据了下载量的大多数,因为它的下载时间比其他两个软件包更长。”

恶意软件藏身AI模型,针对阿里巴巴AI实验室用户发起攻击
软件包的自述文件页面(来源:ReversingLabs)

相反,一旦安装,他们就会秘密植入一个信息窃取程序(旨在窃取信息的恶意软件)。这段有害代码隐藏在PyTorch模型中。需要说明的是,PyTorch模型通常用于机器学习,本质上是压缩的 Pickle 文件。Pickle是一种用于保存和加载数据的常用Python格式,但它存在风险,因为恶意代码可能隐藏在其中。这个特定的信息窃取程序收集了受感染计算机及其 .gitconfig 文件的基本信息,而该文件通常包含开发人员的敏感用户信息。

恶意软件藏身AI模型,针对阿里巴巴AI实验室用户发起攻击

带有恶意ML模型的包触发的THP

这些软件包自5月19日起在PyPI上线不到 24 小时,下载量却高达约1600次。RL研究人员认为,此次攻击可能始于钓鱼邮件或其他社交工程手段,旨在诱骗用户下载这些假冒软件。该恶意软件会搜索中国热门应用阿里会议的详细信息和.gitconfig文件,这表明中国开发者可能主要目标。

为什么ML模型成为攻击目标?

人工智能和机器学习在日常软件中的应用迅速增长,使其成为软件供应链的一部分,为攻击者创造了新的机会。ReversingLabs一直在追踪这一趋势,此前曾警告过Pickle文件格式的危险性。

ReversingLabs产品管理总监Dhaval Shah 此前曾指出,Pickle文件可能被用于注入有害代码。2月份的nullifAI活动证实了这一点,该活动在另一个机器学习项目平台Hugging Face上发现了恶意机器学习模型

PyPI上的这一最新发现表明,攻击者越来越多地使用机器学习模型(尤其是Pickle格式)来隐藏恶意软件。安全工具才刚刚开始应对这一新威胁,因为机器学习模型传统上被视为数据载体,而非可执行代码的存放地。这凸显了软件开发中迫切需要为所有类型的文件提供更好的安全措施。

结论

恶意PyPI软件包并不少见。强化学习 (RL) 威胁研究人员每周甚至每天都会遇到它们。但威胁行为者总是试图寻找新的方法来隐藏恶意负载,使其不被安全工具和安全分析师发现。这一次,他们使用了机器学习模型,这是一种通过 PyPI平台传播恶意软件的新方法。 

这是一种巧妙的方法,因为安全工具才刚刚开始支持检测机器学习模型内部的恶意功能。报告与机器学习模型文件格式相关的安全风险也处于早期阶段。简而言之,安全工具在恶意机器学习模型检测方面还处于初级阶段。传统的安全工具目前缺乏这项必需的功能。强化学习 (RL ) 认识到恶意机器学习模型检测对于软件供应链安全的关键性,并一直积极主动地致力于这一领域。 RL 的软件供应链安全解决方案Spectra Assure 目前支持检测与ML模型相关的安全威胁,并能够生成ML-BOM,该ML-BOM基于物料清单的 CycloneDX标准,可立即查看组织环境中的ML 模型。

参考资源
1、https://www.reversinglabs.com/blog/malicious-attack-method-on-hosted-ml-models-now-targets-pypi
2、https://hackread.com/malware-ai-models-pypi-targets-alibaba-ai-labs-users/

原文始发于微信公众号(网空闲话plus):恶意软件藏身AI模型,针对阿里巴巴AI实验室用户发起攻击

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年5月29日10:14:44
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   恶意软件藏身AI模型,针对阿里巴巴AI实验室用户发起攻击https://cn-sec.com/archives/4109795.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息