免责声明:本公众号 太乙Sec实验室 所提供的实验环境均是本地搭建,仅限于网络安全研究与学习。旨在为安全爱好者提供技术交流。任何个人或组织因传播、利用本公众号所提供的信息而进行的操作,所导致的直接或间接后果及损失,均由使用者本人负责。太乙Sec实验室及作者对此不承担任何责任
部署
首先打开Ollama的官网:https://ollama.com/
模型安装
ollama run deepseek-r1:8b //一般够用
搭建UI端
在Chatbox 中打开设置,在模型提供方中选择 Ollama,即可在模型下拉框中看见你运行的本地模型。
点击保存,即可正常聊天使用。
调教DeepSeek
把网络安全文档全部丢人进去给AnythingLLM
Ollama远程网络配置
你可以在家中的电脑上运行 Ollama 服务,并在手机或其他电脑上使用 Chatbox 客户端连接到这个服务。
默认情况下,需要对远程 Ollama 服务进行简单的配置。
默认情况下,Ollama 服务仅在本地运行,不对外提供服务。要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量:
OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*
//重启 Ollama 应用,使配置生效。为避免安全风险,请不要将 Ollama 服务暴露在公共网络中
在 Windows 上,Ollama 会继承你的用户和系统环境变量。
//为你的用户账户编辑或创建新的变量 OLLAMA_HOST,值为 0.0.0.0;为你的用户账户编辑或创建新的变量 OLLAMA_ORIGINS,值为 *。
在 Chatbox 中,将 API Host 设置为:
http://192.168.XX.XX:11434
nps是一款轻量级、高性能、功能强大的内网穿透代理服务器。目前支持tcp、udp流量转发,可支持任何tcp、udp上层协议
如果要公网上线可以配合内网穿透把本地端口映射出去就行
注意要修改以下环境变量
OLLAMA_HOST=0.0.0.0: //让 Ollama 监听所有网络接口,支持局域网内其他设备访问。
OLLAMA_ORIGINS=*:// 允许任何来源的客户端连接 Ollama 服务。
// 注意:这种配置适合本地或受信任的网络环境,若需公网访问,务必结合防火墙、内网穿透等安全措施,避免服务暴露在公共网络中。
访问API Host 即可
往期精彩回顾
关注我,了解更多知识,别忘了关注+点赞哦!
原文始发于微信公众号(太乙Sec实验室):零基础:从本地部署到云端上线,打造你的DeepSeek网络安全专家
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论