微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

admin 2024年11月19日10:50:39评论23 views字数 503阅读1分40秒阅读模式
微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据
微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

据报道,科技媒体 darkreading发布博文,称微软 Copilot Studio 存在服务器端请求伪造(SSRF)安全漏洞,会泄露敏感云数据。

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

微软 Copilot Studio 简介

Copilot Studio 是一个端到端对话式 AI 平台,支持你使用自然语言或图形界面创建和自定义助手。用户使用 Copilot Studio,可以轻松设计、测试和发布满足内部或外部场景的需求。

研究人员利用微软 Copilot Studio 工具中的一个漏洞,能够发出外部 HTTP 请求,从而访问云环境中有关内部服务的敏感信息,并潜在影响多个租户。

Tenable 的研究人员在聊天机器人创建工具中发现了服务器端请求伪造(SSRF)漏洞,他们利用该漏洞访问了微软的内部基础架构,包括实例元数据服务(IMDS)和内部 Cosmos DB 实例。

该漏洞被微软追踪为 CVE-2024-38206,根据与该漏洞相关的安全公告,经过验证的攻击者可以绕过 Microsoft Copilot Studio 中的 SSRF 保护,通过网络泄漏基于云的敏感信息。

(来源:IT之家)

微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

原文始发于微信公众号(天锐数据安全):微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年11月19日10:50:39
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   微软 Copilot Studio AI 工具被曝安全漏洞,会泄露敏感云数据https://cn-sec.com/archives/3409946.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息