Linux安全盲区曝光:io_uring机制可绕过主流检测工具

admin 2025年4月29日16:50:09评论0 views字数 2360阅读7分52秒阅读模式
Linux安全盲区曝光:io_uring机制可绕过主流检测工具

Linux安全盲区曝光:io_uring机制可绕过主流检测工具

ARMO研究团队近日披露Linux运行时安全工具存在重大缺陷,证实io_uring接口可使rootkit(内核级恶意软件)绕过常规监控方案。
测试显示包括Falco、Tetragon乃至Microsoft Defender for Endpoint在内的主流工具均无法检测利用该机制的攻击行为。
01

技术原理

"该机制允许用户态应用程序在不触发系统调用的情况下执行各类操作,"ARMO解释道。io_uring作为Linux 5.1引入的高性能异步I/O接口,通过用户空间与内核空间共享环形缓冲区显著降低开销。但正是这种设计特性,使其绕过了作为多数Linux安全工具基石的系统调用监控机制。
02

概念验证

为验证威胁,ARMO开发出全功能rootkit工具Curing,该工具仅通过io_uring操作与C2服务器通信,全程零系统调用。实验证明攻击者可实现:
  • 数据窃取
  • 远程命令执行
  • 网络横向渗透 
而传统监控工具完全无法察觉。
03

产品测试结果

针对多款开源及商业Linux安全产品的测试暴露出严重缺陷:
  • Falco:对基于io_uring的操作完全无感知
  • Tetragon:默认策略会遗漏io_uring活动,需手动配置Kprobes和LSM钩子增强可见性
  • Microsoft Defender for Endpoint:即使io_uring被滥用,仅能通过Fanotify监控到文件变更
04

行业现状反思

当前Linux EDR(终端检测与响应)工具普遍依赖eBPF代理,因实现便利性优先监控系统调用。ARMO指出根本性架构缺陷:"多数安全厂商仍未解决该问题,他们持续依赖简单直接的方案,无法应对应用与内核特性的变化多样性。"
05

缓解建议

研究团队提出三项改进策略:
  • 异常io_uring使用监控:标记应用程序中的非常规io_uring调用
  • 采用KRSI(内核运行时安全检测):与Linux LSM框架集成,获取结构化内核事件
  • 超越系统调用的钩子技术:利用稳定Kprobes等钩子点扩大内核监控覆盖面
ARMO特别强调KRSI的优势:"与直接挂钩系统调用不同,LSM钩子能为安全相关操作提供更一致可靠的覆盖。"该发现为Linux安全生态敲响警钟,突显现代内核特性与安全防护间的关键性滞后问题。

新型越狱攻击可突破ChatGPT、DeepSeek等主流AI服务防护

研究人员最新发现的两项越狱技术暴露了当前主流生成式AI服务的安全防护存在系统性漏洞,受影响平台包括OpenAI的ChatGPT、谷歌的Gemini、微软的Copilot、深度求索(DeepSeek)、Anthropic的Claude、X平台的Grok、MetaAI以及MistralAI。
这些越狱攻击可通过几乎相同的提示词在不同平台上执行,使攻击者能够绕过内置的内容审核和安全协议,生成非法或危险内容。其中名为"Inception"的技术利用嵌套虚构场景侵蚀AI的伦理边界,另一种技术则诱导AI透露其禁止响应内容后转向非法请求。
01

系统性越狱:

"Inception"与上下文绕过技术

近期出现的两种高效越狱策略利用了大型语言模型(LLM)设计和部署中的基础性弱点。其中"Inception"技术通过让AI想象嵌套虚构场景,逐步引导对话至通常会被安全过滤器拦截的请求。攻击者利用AI的角色扮演能力和多轮对话上下文保持特性,诱使模型生成违反伦理和法律准则的内容。

第二种技术通过询问AI"不应如何响应特定请求"来获取其内部防护规则信息。攻击者随后交替使用正常和非法提示词,利用AI的上下文记忆绕过安全检查。CERT公告指出,这两种方法都利用了AI的基础设计特性:乐于助人的驱动、上下文保持能力以及对语言和场景框架细微操纵的敏感性。

02

行业影响与潜在风险

这些越狱技术具有严重危害,攻击者可借此指示AI系统生成涉及管制物质、武器、钓鱼邮件、恶意软件等非法内容。虽然单个越狱风险等级可能较低,但其系统性漏洞特性显著放大了整体风险。恶意攻击者可能利用这些弱点大规模自动化生成有害内容,甚至将合法AI服务作为活动掩护。

主流平台的普遍受影响现状表明,当前AI安全和内容审核方法难以应对攻击者不断演变的战术。随着生成式AI在客服、医疗、金融等领域的广泛应用,成功越狱可能造成严重后果。

03

厂商响应与行业挑战

深度求索(DeepSeek)承认报告但表示这属于传统越狱而非架构缺陷,称AI提及的"内部参数"和"系统提示"属于幻觉而非真实信息泄露。其他厂商虽未公开声明,但据称正在进行内部调查和更新。

专家强调,事后防护栏和内容过滤器仍是AI安全的重要组成部分,但并非万无一失。攻击者持续开发角色注入(character injection)和对抗性机器学习规避(adversarial machine learning evasion)等新技术来利用审核系统盲点。随着生成模型能力提升和广泛应用,AI开发者与攻击者之间的攻防对抗预计将愈演愈烈。

安全研究人员David Kuzsmar和Jacob Liddle分别发现了"Inception"技术和上下文绕过方法,Christopher Cullen记录了他们的研究成果。这些发现促使行业重新审视AI安全协议,亟需建立更强大、自适应的防御机制。随着生成式AI加速融入日常生活和关键基础设施,保护这些系统免受创造性持续攻击的挑战正变得日益复杂。

声明:除发布的文章无法追溯到作者并获得授权外,我们均会注明作者和文章来源。如涉及版权问题请及时联系我们,我们会在第一时间删改,谢谢!文章来源: FreeBuf

Linux安全盲区曝光:io_uring机制可绕过主流检测工具

原文始发于微信公众号(e安在线):Linux安全盲区曝光:io_uring机制可绕过主流检测工具 | 新型越狱攻击可突破DeepSeek等主流AI服务防护

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年4月29日16:50:09
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   Linux安全盲区曝光:io_uring机制可绕过主流检测工具https://cn-sec.com/archives/4015823.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息