DeepSeek是开源模型,而且有多个版本,每个人都可以自己部署,再加上最近DeepSeek官网经常限流无法使用,于是很多人便会自己本地部署。
但是最近发现了一个比较有意思的事情,如果有人部署在了公网服务器上,那么很有可能现在已经被别人使用了
Ollama
相信很多朋友都是使用ollama这个工具部署的,之前我也写了一篇私有化部署的文章:网页服务总繁忙,本地部署下DeepSeek R1
如果你默认直接安装并且部署的话,那么当你在运行的时候就会直接运行一个web服务出来可以直接访问,默认端口为11434,例如:
但是注意,Ollama本身是没有任何鉴权机制的,你在本地运行没有任何问题,如果你把它运行在了你公网服务器上,那就意味着,你的服务直接暴露在了公网上,这是妥妥的未授权。
未授权危害
首先,你本地通过ChatBox这类的图形化软件使用对接Ollama的时候,本质是与Ollama提供的web api进行通信的,我举几个API的例子,详细的使用可以去Ollama官网查看
接口名称 |
接口地址 |
请求方法 |
接口描述 |
Chat |
|
POST |
使用提供的模型生成聊天中的下一条消息。 |
Tags |
|
GET |
列出本地可提供的型号。 |
Show |
|
POST |
获取指定模型的详细信息。 |
Copy |
|
POST |
从现有模型创建副本。 |
Delete |
|
DELETE |
删除模型及其数据。 |
Pull |
|
POST |
从 Ollama 库中下载指定模型。 |
Push |
|
POST |
将模型上传到模型库。 |
ListRunning |
|
POST |
列出当前加载到内存中的模型。 |
Version |
|
GET |
获取 Ollama 服务的版本号。 |
也就是说,你公网上暴露出去之后,我是可以直接使用上述接口对你进行调用的,相当于你部署的模型,我拿到你的地址之后,我就可以使用。
当然,仅仅是使用还好,可以看到上面API的功能除了对话外,还支持下载,上传,删除等等,也就是说任何一个人都可以对你的模型进行操作,更有甚者还可以进行模型投毒。
公网现状
随后,我通过一些手段去公网上探测了一波,发现还真不少。
举一个例子,通过访问/api/tags
,看到上面部署了一堆模型
然后,我尝试利用ChatBox在本地使用一下
可以正常使用,而像这样直接暴露出去的服务,目前公网上还有很多
防护配置
本篇仅仅考虑网络层面的防护,最保险的就是限制访问来源,这里我用Linux的防火墙配置为例
确保防火墙已启用:
sudo ufw enable
只允许你的本地PC 的公网 IP访问 Ollama 服务的端口(默认 11434
):
sudo ufw allow from 你的公网IP to any port 11434
原文始发于微信公众号(飞羽技术工坊):公网部署DeepSeek的一定要注意
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论