关键词
网络安全
最近,一项令人震惊的“硬核”技术浮出水面:通过简单的方法,任何人都能直接调用全球范围内默认开放 Ollama API 的计算机资源。无论这些设备位于美国、中国、德国还是英国,只要拥有 IP 地址,就可能被用作高性能 AI 计算服务器,而设备主人却浑然不觉。
实测场景:
抱着试试看的心态,我随机挑选了一个 IP 地址进行测试,结果令人难以置信——直接成功连接!这台设备竟是一台配备了 32B 模型 DeepSeek R1 的高性能机器,显卡配置至少是 RTX 3090 或 RTX 4090 级别。这样的设备居然能被随意调用,实在令人后背发凉!
问题根源:
Ollama 默认暴露 API!
Ollama 的默认设置:
-
默认启动 API:安装并启动 Ollama 后,它会自动启动一个 API 服务。
-
无访问限制:默认情况下,任何人都可以通过 IP 地址直接访问该 API,无需任何授权。
-
全球 IP 扫描威胁:更有甚者,有人开发了全球 IP 扫描工具,专门搜寻开放 Ollama API 的设备,并将这些 IP 地址整理成公开搜索引擎。只需输入关键词,就能轻松找到并使用这些设备。
潜在危害:
如果未做任何防护,你的 GPU 资源可能正在为陌生人提供 AI 计算服务:
-
资源耗尽:你的显卡可能被大量占用,导致设备性能下降,甚至无法正常使用。
-
安全风险:开放 API 可能被滥用,甚至成为攻击的跳板。
-
经济损失:如果你使用的是云服务器(如 AWS、阿里云等),GPU 资源被占用将直接增加你的成本。
防护措施:如何保护你的设备?
为了避免设备被“白嫖”,可以采取以下措施:
-
限制 API 访问范围
修改 Ollama 启动命令,让 API 仅监听本地回环地址(127.0.0.1),防止外部访问:
<BASH>
ollama serve --host 127.0.0.1
使用防火墙屏蔽端口
通过防火墙封锁 Ollama 的默认端口(11434),确保 API 只能在本地或局域网内访问:
-
Windows:
<POWERSHELL>
New-NetFirewallRule -DisplayName "Block Ollama External Access" -Direc
tion Inbound -LocalPort 11434 -Protocol TCP -Action Block
-
Linux(iptables):
<BASH>
sudo iptables -A INPUT -p tcp --dport 11434 -j DROP
-
Linux(UFW):
<BASH>
sudo ufw deny 11434
检查公网 IP 是否暴露
如果你的 Ollama 运行在云服务器或具有公网 IP 的设备上,建议立即检查公网 IP 是否可访问。如果发现异常,请关闭 Ollama 或限制 API 访问权限。停止非法调用
如果发现你的设备已被他人调用,建议立即更换 IP 地址或停止 Ollama 运行,避免进一步资源损失。总结:
Ollama 默认设置的开放性虽方便了本地使用,但也带来了巨大的安全隐患。你的显卡是用真金白银购买的,绝不应该为陌生人“免费打工”。
-
立即行动:检查你的 Ollama 配置,确保 API 不被外部访问。
-
提高警惕:定期监控设备资源使用情况,发现异常及时处理。
-
安全至上:将防护措施落实到位,避免成为下一个被“白嫖”的对象。
你的设备,你的资源,必须由你来掌控!
END
原文始发于微信公众号(安全圈):【安全圈】Ollama 安全警告:你的 IP 可能已泄露,显卡正被“白嫖”!
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论