安全公司声称,Replicate 平台出现“跨租户攻击”漏洞的主要原因是该平台为提升 AI 模型推论(inference)效率推出的模型容器化格式 Cog,虽然相关格式能够显著改善模型与效率,不过 Replicate 平台忽略了 Cog 格式中的安全隔离机制。
IT之家获悉,黑客可以将经过训练后的恶意模型打包成 Cog 容器,并通过 Replicate 的用户操作界面与容器互动,最终成功进行了一系列远程执行代码(RCE)攻击测试,获得了容器的 root 权限。
此后,研究人员还对 Replicate 平台的基础设施进一步调查,利用当前容器的 TCP 连接成功访问到另一台容器,并通过名为 rshijack 的工具将特定数据成功注入至 TCP 连接中,从而绕过了平台的身份验证步骤,成功访问到其他用户的 AI 模型。
研究人员指出,黑客可以利用相关漏洞轻松获取其他用户自用的 AI 模型,能够自由从相关模型问答记录中提取用户隐私数据,还能够自由下载 / 修改用户模型内容,对平台存在严重危害。
原文始发于微信公众号(安全圈):【安全圈】AI 平台 Replicate 曝“跨租户攻击”安全隔离漏洞,用户自训练人工智能模型可被黑客入侵
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论