速度自查,看看你的通过Ollama部署的大模型有没有中招

admin 2025年2月12日22:49:46评论30 views字数 1491阅读4分58秒阅读模式
如何便捷快速的在本地部署大模型,当然是Ollama梭哈。
简简单单跑各种各样的大模型,还能及其方便的调用API,

但是ollama本身并没有提供安全认证功能,部署后会开放一个接口服务,如果直接部署或者穿透到公网,无疑是明晃晃的未授权,来看看公网上有多少服务:

速度自查,看看你的通过Ollama部署的大模型有没有中招
能够直接使用Ollama提供的web api进行通信:
接口详细文档:
https://github.com/ollama/ollama/blob/main/docs/api.md

接口名称

接口地址

请求方法

接口描述

Chat

/api/chat

POST

使用提供的模型生成聊天中的下一条消息。

Tags

/api/tags

GET

列出本地可提供的型号。

Show

/api/show

POST

获取指定模型的详细信息。

Copy

/api/copy

POST

从现有模型创建副本。

Delete

/api/delete

DELETE

删除模型及其数据。

Pull

/api/pull

POST

从 Ollama 库中下载指定模型。

Push

/api/push

POST

将模型上传到模型库。

ListRunning

/api/ps

POST

列出当前加载到内存中的模型。

Version

/api/version

GET

获取 Ollama 服务的版本号。

列出本地可用的模型:
GET /api/tags
速度自查,看看你的通过Ollama部署的大模型有没有中招

直接就是AnythingLLM调用API,爽了,兄弟们。

速度自查,看看你的通过Ollama部署的大模型有没有中招
快去修一下,
我都要把你的大模型玩坏了!!!
防护建议:
询问了一些大佬,确定ollama本身真没有提供安全认证功能,最直接的建议还是直接限制访问来源
例如:
 1、用Linux的防火墙
   确保防火墙已启用:

sudo ufw enable

    只允许你的本地PC 的公网 IP访问 Ollama 服务的端口(默认 11434):

sudo ufw allow from 你的公网IP to any port 11434
2、云服务器安全组,进行端口白名单的限制3、通过nginx转发然后配置一些认证:
添加header认证
location / {set$auth_check0;if ($http_Authorization!="Basic xxxxxxxx") {set$auth_check1;    }if ($auth_check) {return403Forbidden;    }    proxy_pass http://192.168.31.110:11434/;}
或者
location / {    auth_basic "Restricted Area";    auth_basic_user_file /etc/nginx/.htpasswd;    proxy_pass http://192.168.31.110:11434/;}
IP地址白名单/黑名单
location / {    allow 192.168.1.0/24;    deny all;    proxy_pass http://192.168.31.110:11434/;}
增加日志和监控
location / {    access_log /var/log/nginx/access.log combined;    proxy_pass http://192.168.31.110:11434/;}
Ollama搜索语法公众号后台回复:Ollama
免责声明:请勿利用文章内的相关技术或信息从事非法测试,由于传播、利用此文所提供的信息或者工具而造成的任何直接或者间接的后果及损失,均由使用者本人负责,所产生的一切不良后果与文章作者无关。该文章仅供学习用途使用。

原文始发于微信公众号(Secu的矛与盾):速度自查,看看你的通过Ollama部署的大模型有没有中招

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年2月12日22:49:46
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   速度自查,看看你的通过Ollama部署的大模型有没有中招https://cn-sec.com/archives/3729532.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息