Microsoft Copilot:从即时注入到泄露个人信息【部分】

admin 2024年9月25日18:34:10评论21 views字数 1127阅读3分45秒阅读模式

声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由用户承担全部法律及连带责任,文章作者不承担任何法律及连带责任。

博客新域名:https://gugesay.com

不想错过任何消息?设置星标↓ ↓ ↓

Microsoft Copilot:从即时注入到泄露个人信息【部分】

目录

背景介绍

本文介绍了 Microsoft 365 Copilot 的一处漏洞,该漏洞允许用户的电子邮件和其它个人信息被盗。

该漏洞值得深入研究,因为它结合了各种新颖的攻击技术,而这些技术只有不到两年的历史。

Microsoft Copilot:从即时注入到泄露个人信息【部分】

白帽小哥最初于 1 月份向微软公司披露了此漏洞的部分内容,然后于 2024 年 2 月披露了完整的漏洞利用链。几天前,白帽小哥获得了 MSRC 的许可,现在可以完整披露漏洞信息了。

漏洞利用链

该漏洞利用将以下技术组合成一个成功、可靠的漏洞利用:

  • 通过恶意电子邮件(或隐藏在共享文档中)进行提示注入

  • 自动工具调用,无需人工参与即可阅读其他电子邮件或文档

  • ASCII 走私,对用户不可见,用于渗透的数据

  • 呈现攻击者控制域(网站、mailto:)的超链接

  • 条件提示注入(可选) 此漏洞还可能包含条件指令,仅当特定用户通过 Copilot 交互时才激活。

Microsoft 365 Copilot 与提示注入

Microsoft Copilot 在处理电子邮件和其它文档时容易受到第三方内容的提示注入。

今年早些时候,许多案例(https://embracethered.com/blog/posts/2024/whoami-conditional-prompt-injection-instructions/) 已经证明了这一点,这些案例显示由于即时注入而导致完整性甚至可用性的损失。

下面是一个快速演示,显示 Copilot 分析 OneDrive 中的 Word 文档:

Microsoft Copilot:从即时注入到泄露个人信息【部分】

Word 文档包含诱骗 Copilot 成为骗子的指令,即Microsoft Defender for Copirate 。

这意味着 Copilot 无法保证任何检索到的数据和一般聊天对话的完整性。

提示注入还没有解决办法,因此 Copilot 容易受到攻击也就不足为奇了。然而,令我惊讶的是下面的事情……

加入星球,随时交流:

(前50位成员):99元/年(后续会员定价):128元/年Microsoft Copilot:从即时注入到泄露个人信息【部分】

感谢阅读,如果觉得还不错的话,欢迎分享给更多喜爱的朋友~

====正文结束====

原文始发于微信公众号(骨哥说事):Microsoft Copilot:从即时注入到泄露个人信息【部分】

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年9月25日18:34:10
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   Microsoft Copilot:从即时注入到泄露个人信息【部分】https://cn-sec.com/archives/3126514.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息