Windows文件管理器重大漏洞,无需交互,PoC已发布
Windows文件管理器中发现了一个名为CVE-2025-24071的关键漏洞,攻击者只需解压压缩文件即可窃取用户的NTLM哈希密码,无需用户进行任何交互。安全研究人员已发布了该高危漏洞的概念验证(PoC)利用程序,微软已在2025年3月的更新中修复了该漏洞。
![Windows文件管理器重大漏洞,无需交互,PoC已发布 | 面向漏洞编程:如何让AI编程助手生成带后门的代码 Windows文件管理器重大漏洞,无需交互,PoC已发布]()
该漏洞被称为“通过RAR/ZIP解压缩导致的NTLM哈希泄露”,利用了Windows文件管理器的自动文件处理机制。当用户从压缩包中提取一个包含恶意SMB路径的.library-ms文件时,Windows文件管理器会自动解析其内容以生成预览和索引元数据。
即使用户从未显式打开提取的文件,这种自动处理也会发生。安全研究员“0x6rss”表示,.library-ms文件格式是基于XML的,Windows文件管理器信任该文件格式以定义库位置,其中包含一个指向攻击者控制的SMB服务器的标签。
在提取文件后,Windows文件管理器会尝试自动解析嵌入的SMB路径(例如,192.168.1.116shared)以收集元数据。此操作会触发受害者系统与攻击者服务器之间的NTLM认证握手,从而在没有用户交互的情况下泄露受害者的NTLMv2哈希。
研究人员通过进程监控工具观察到,在提取文件后,Explorer.exe和SearchProtocolHost.exe(Windows索引服务的一部分)会立即对.library-ms文件执行以下操作:
-
-
-
QueryBasicInformationFile:提取元数据
-
Wireshark抓包数据证实,这些操作会立即触发SMB通信尝试,包括NTLM认证握手。
|
|
|
微软Windows(特别是Windows文件管理器)
|
|
- 泄露受害者的NTLMv2凭证,用于传递哈希攻击
|
|
- 用户必须解压一个特制的.library-ms文件
|
|
|
该漏洞可能导致敏感信息暴露给未经授权的攻击者,从而引发网络欺骗攻击。2025年3月16日,安全研究员“0x6rss”在GitHub上发布了一个概念验证利用程序。该PoC包含一个生成恶意.library-ms文件的Python脚本,可通过简单的命令运行:python poc.py。
有证据表明,此漏洞可能在公开披露之前已被出售和利用。一个名为“Krypt0n”的威胁行为者据称是恶意软件“EncryptHub Stealer”的开发者,其在黑市论坛上出售了该漏洞利用程序。
根据翻译的论坛帖子,该攻击者解释道:“接收哈希的服务器是在本地创建的,例如在VPS上。然后,通过利用该漏洞,你可以生成一个包含你的IP、共享路径等的配置文件。如果用户只是打开文件管理器或访问共享文件夹,就会发生自动重定向,用户的哈希值将被发送到你的服务器。”
微软已于2025年3月11日通过“补丁星期二”更新修复了该漏洞。强烈建议所有Windows用户立即应用这些安全更新。该漏洞是微软产品中不断增加的NTLM相关漏洞之一,此前研究人员在Microsoft Access、Publisher和其他应用程序中也发现了类似的凭证泄露问题。
安全专家建议用户保持所有微软产品的更新,并实施额外的防护措施以应对NTLM中继攻击,例如启用SMB签名并在可能的情况下禁用NTLM。
面向漏洞编程:如何让AI编程助手生成带后门的代码
3月20日消息,安全厂商Pillar Security的研究人员发布报告称,GitHub Copilot和Cursor等AI编程助手可能会被操纵,攻击者可以通过分发恶意规则配置文件,诱导AI生成包含后门、漏洞和其他安全风险的代码。
规则文件可被植入“不可见”后门,
用于生成不安全代码
规则文件是AI编程助手的配置功能,用于指导AI编程助手在生成或编辑代码时的行为。例如,规则文件可能包含指令,要求助手遵循特定的编码最佳实践、使用特定格式,或以特定语言输出响应。
Pillar研究人员开发了一种名为“规则文件后门”(Rules File Backdoor)的攻击技术,其原理是向规则文件注入对人类用户不可见但AI代理可读取的指令,以此实现攻击目的。
研究人员指出,隐藏的Unicode字符(如双向文本标记和零宽度连接符)可以用于在用户界面和GitHub拉取请求中混入恶意指令。
规则文件通常会在开发者社区中共享,并通过开源代码库分发,或包含在项目模板中。因此,攻击者可以通过论坛分享、在GitHub等开源平台上发布,或通过向热门代码库提交拉取请求的方式传播恶意规则文件。
一旦受污染的规则文件被导入GitHub Copilot或Cursor,AI代理将在未来的编码过程中读取并执行攻击者的指令。
在Pillar演示的一个案例中,一个看似指示AI“遵循HTML5最佳实践”的规则文件实际上隐藏了额外的指令,要求在每个文件的末尾添加一个外部脚本。
隐藏的提示还包含一个“越狱”机制,以绕过潜在的安全检查,并向AI保证添加该脚本是为了确保项目安全,并且是公司政策的一部分。此外,该指令还要求AI在任何对用户的响应中都不得提及该脚本的添加。
Pillar研究人员发现,当GitHub Copilot和Cursor被要求生成HTML页面时,它们均按照指令添加了该外部脚本,并且在自然语言响应中未提及该脚本的存在。
研究人员指出,“规则文件后门”还可能被用于在生成的代码中引入安全漏洞,或创建会泄露敏感信息(如数据库凭据或API密钥)的代码。
Pillar于2025年2月向Cursor披露了此漏洞,并于2025年3月向GitHub披露。Cursor表示,该问题并非其平台的漏洞,而是用户自行管理风险的责任。GitHub也作出类似回应,称用户应自行审核和接受Copilot生成的代码和建议。
GitHub 2024年“AI在软件开发中的应用”调查显示,约97%的受访者表示他们在工作和日常生活中都使用了生成式AI,这表明AI编程助手在开发者群体中的广泛应用。
Pillar建议开发者审查所有使用的规则文件,以防其中隐藏恶意注入内容,如不可见的Unicode字符或异常格式,并以审查可执行代码的同等标准对待AI配置文件。
研究人员还写道,AI生成的代码应经过仔细审核,尤其是检查是否存在外部资源引用等意外添加的内容。自动化检测工具也可用于识别规则文件中的可疑内容或AI生成代码中的入侵迹象。
声明:除发布的文章无法追溯到作者并获得授权外,我们均会注明作者和文章来源。如涉及版权问题请及时联系我们,我们会在第一时间删改,谢谢!文章来源:安全内参、FreeBuf、参考资料:scworld.com
原文始发于微信公众号(e安在线):Windows文件管理器重大漏洞,无需交互,PoC已发布 | 面向漏洞编程:如何让AI编程助手生成带后门的代码
评论