国家网络安全通报中心最新监测显示,全球超 2 万台 Ollama 服务器因默认配置缺陷暴露于公网,攻击者可直接操控模型、窃取核心数据,甚至让服务器沦为 “挖矿肉鸡”。这不是危言耸听 —— 近日某金融机构已因此损失超千万,而你可能正面临同样风险!
【深度剖析:Ollama 为何成 “高危入口”?】
-
未授权访问:门户大开的 “AI 提款机”
Ollama 默认开放 11434 端口且无身份验证,攻击者可通过公网直接调用接口: /api/show
窃取模型许可证、训练参数 /api/pull
/ /api/push
篡改模型代码或导出核心资产/chat
接口被滥用导致 GPU 算力耗尽 -
历史漏洞叠加:定时炸弹连环爆
框架存在多个高危漏洞(如 CVE-2024-37032 远程代码执行),攻击者可: -
越界读取内存数据 -
路径遍历删除关键文件 -
植入恶意代码实现服务器完全控制 -
数据泄露:核心资产 “裸奔”
通过/api/tags
等接口,攻击者可提取模型训练数据,某医疗企业因此泄露患者隐私数据,引发合规危机。
【紧急行动:三步筑牢安全防线】
Step 1:立即关闭 “公网大门”
本地部署:启动时添加OLLAMA_HOST=127.0.0.1
,仅允许本地访问
-
必须公网开放:通过防火墙限制 11434 端口仅可信 IP 访问,示例配置:
iptables -A INPUT -p tcp --dport 11434 -j DROP
location / {
proxy_pass http://localhost:11434;
auth_basic "AI安全验证";
auth_basic_user_file /etc/nginx/.htpasswd;
}
Step 3:漏洞修复与长效监控
-
立即升级至 Ollama 0.1.34+,修复 RCE 漏洞 -
部署入侵检测系统(IDS),监控日志关键词: "api-key","pull","delete"
-
每月使用 Shodan/Zoomeye 扫描资产,排查隐藏端口
【行业案例:从 “裸奔” 到 “铁桶” 的蜕变】
某制造企业通过以下措施,将安全风险降低 90%:
-
禁用 push
/delete
等高风险接口 -
为 API 调用设置频率限制(50 次 / 分钟) -
部署 360 AI-WPP 系统实时监控端口状态 -
每周开展红蓝对抗演练,响应时间缩短至 15 分钟内
【专家呼吁:AI 安全需 “零信任” 思维】
“本地化部署≠绝对安全。” 腾云悦智安全实验室指出,企业需建立 AI 服务安全基线:
-
最小暴露原则:仅开放必要端口 -
动态监测:结合 Prometheus+Grafana 监控异常流量 -
人员培训:定期开展模型安全意识教育
【文末提醒】
立即自查你的 Ollama 服务器,避免成为下一个受害者!点击 “阅读原文” 获取《Ollama 安全配置自查清单》,或联系我们获取免费漏洞扫描服务。
守护 AI 安全,刻不容缓!
(本文数据来源于国家网络安全通报中心、360 全球互联网测绘平台及腾云悦智安全实验室)
原文始发于微信公众号(骇客安全):警惕!你的 Ollama 可能正在 “裸奔”!数万台服务器暴露公网,如何紧急补救?
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论