总体效果:你可以创建属于自己的知识库,例如一些高质量的网络安全文章,大模型会对这些文章进行学习、总结,结合大模型自己已有知识基础,给出你想要的答案。当然远远不仅限于网络安全。
首先安装Ollma https://ollama.com/download 点击下载即可
代理速度太慢了可以点击这个链接
https://ghfast.top/https://github.com/ollama/ollama/releases/download/v0.5.7/OllamaSetup.exe
直接点击install安装即可
安装之后终端输入ollama 如图表示安装成功
配置环境变量 OLLAMA_HOST即本地端口 OLLAMA_MODELS 即存放大模型的文件夹
去ollama官网下载deepseek https://ollama.com/search
这里我用的是R1 进去之后 复制命令
终端运行
ollama run deepseek-r1
在下载过程中可能出现 一开始很快越到后面下载越慢的情况 可以按照以下步骤解决
1.键入 ctr+c 暂停下载。
2.重新粘贴命令 ,等待重新链接。
试了这么多次重要成功了
就已经可以在终端输入提示词了
然后安装docker 用来启动RAGFLOW
正常安装重启即可
配置docker镜像源
{
"builder": {
"gc": {
"defaultKeepStorage": "20GB",
"enabled": true
}
},
"experimental": false,
"registry-mirrors": [
"https://registry.dockermirror.com/",
"https://docker.mirrors.ustc.edu.cn"
]
}
使用git命令拉取ragflow (没有git命令可以下载安装 https://github.com/git-for-windows/git/releases/download/v2.47.1.windows.2/Git-2.47.1.2-64-bit.exe)
拉取的时候需要科学上网(clash) 设置git代理 然后拉取
git config --global http.proxy "http://127.0.0.1:7897"
git clone https://github.com/infiniflow/ragflow.git
对ragflow/docker/.env文件做如下修改
如果不修改的话就没有嵌入式模型 用起来就会比较麻烦 所以这里一定要修改
进入ragflow/docker目录下 执行
docker-compose -f docker-compose.yml up -d
关闭命令
docker-compose -f docker-compose.yml stop
这个命令如果运行有问题 可能是本地没有hyper-v或者没有打开 参考这两篇文章
https://www.xitongzhijia.net/xtjc/20220102/237013.html
https://www.cnblogs.com/ZaraNet/p/11918807.html
docker compose的时候一直报错 所以修改了华为云
RAGFLOW_IMAGE=swr.cn-north-4.myhuaweicloud.com/infiniflow/ragflow
就拉取成功了
#反正拉取不成功要么是hyper-v的问题、要么是镜像源的问题(docker的镜像源)、要么是RAGFLOW_IMAGE的问题(如上)
启动成功后查看服务器状态
docker logs -f ragflow-server
输出如图启动成功
访问本地80端口 http://127.0.0.1/login
访问http://127.0.0.1/user-setting/model 开始配置deepseek 选择ollama
设置如下
其中baseurl 是ipconfig中wlan的ip地址 我试过127.0.0.1/localhost都不行
根据自己情况 配置一个嵌入式模型
新建聊天助理 并进行自定义配置 可以选择你的知识库(即大模型要学习、参考的东西)或者说是数据集
这里我举一个例子
点击进行解析
回到聊天配置
也可以独自配置一下提示引擎
最终效果如下
原文始发于微信公众号(Ting的安全笔记):Ollama+DeepSeek+RAGFLOW搭建自己专属安全大模型 自定义知识库让你的大模型更专业
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论