4月6日,Goby安全团队检测发现,AI大模型开源项目 Langflow-ai github issue 提交了一个关于代码注入漏洞反馈(当前该issue已关闭), 攻击者可以通过向特定端点发送精心构造的HTTP请求,执行任意代码,官方迅速响应随即发布1.3.0版本修复此漏洞。
4月7日,该漏洞披露并分配编号为CVE-2025-30208,CVSS评分为9.8。Goby安全团队收到该情报后立即响应测试。
通过FOFA测绘,可以看到,LangFlow全球暴露资产数量达2,457个。
再分析漏洞危害
影响版本:LangFlow < 1.3.0
CVSS:9.8
风险等级:严重
漏洞描述:攻击者无需认证,仅需通过向/api/v1/validate/code精心构造的HTTP请求,可绕过安全限制直接执行Python代码。攻击者可利用此漏洞获取最高权限执行任意命令,对依赖该AI工具的企业和开发者造成严重安全威胁。
尽管LangFlow多用于企业内网环境,但FOFA测绘数据显示,全球仍有2k+相关服务直接暴露于公网,攻击者可利用此类暴露入口,结合漏洞实现从外网直穿内网的定向打击。
Goby已成功复现并支持检测(标准版及企业版):
(视频演示为靶场环境)
【安全修复建议】
1. 将Langlow版本升级到1.3.0或更高版本
2. 临时防护措施(若无法立即升级)
-
网络隔离:限制LangFlow服务仅允许内网访问
【安全建设建议】
在AI大模型的浪潮下,依赖该AI工具企业需下线非必要公网服务,严格限制AI开发工具的访问边界,即便在内网部署,也需启用API鉴权、网络隔离等基础防护,建立AI资产专项清单,定期扫描组件漏洞。
Goby欢迎表哥/表姐们加入我们的社区大家庭,一起交流技术、生活趣事、奇闻八卦,结交无数白帽好友。
也欢迎投稿到Goby(Goby介绍/扫描/口令爆破/漏洞利用/插件开发/PoC编写/IP库使用场景/Webshell/漏洞分析等文章均可),审核通过后可奖励Goby标准版,快来加入吧~~~
原文始发于微信公众号(GobySec):AI大模型安全漏洞预警!Langflow高危远程代码执行漏洞(CVE-2025-3248)
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论