DeepSeek+本地知识库 = 离线安全专家

admin 2025年2月9日01:13:36评论15 views字数 1827阅读6分5秒阅读模式

DeepSeek+本地知识库 = 离线安全专家

使用ollama deepseek r1 +nomic-embed-text + anythingllm + 本地知识库 喂出一个离线网络安全专家

一、下载Ollama

使用Ollama可以大大降低显存需求,消费级的显卡也能运行大模型,官网下载安装即可:https://ollama.com/download

安装 之后状态栏:

DeepSeek+本地知识库 = 离线安全专家
image-20250207173335717

二、安装DeepSeek-R1模型

进入Ollama官网,找到Models标签

DeepSeek+本地知识库 = 离线安全专家
image-20250207173406851

根据自己的喜好和主机性能选择模型,这里用最近爆火的deepseek

这里以 8b 为例

DeepSeek+本地知识库 = 离线安全专家
image-20250207174156563

复制下命令后,直接本地cmd运行即可

(不挂代理下载会很慢)

DeepSeek+本地知识库 = 离线安全专家
image-20250207173210193

下载完成后直接进入了cmd的对话进程

DeepSeek+本地知识库 = 离线安全专家
image-20250207174849012

下次运行,直接在cmd里面启动就好了

DeepSeek+本地知识库 = 离线安全专家
image-20250207175028080

Ollama模型的默认存储目录:

C:Users用户名.ollama

C盘不够,可以更改模型存储位置:

设置环境变量OLLAMA_MODELS
E:aiollamamodels

DeepSeek+本地知识库 = 离线安全专家

image-20250208111917343

三、安装AnythingLLM

下载地址:

https://anythingllm.com/download

默认安装路径

C:Users用户AppDataLocalProgramsAnythingLLM

安装完成后,启动会进入自动引导界面,跟着界面一步步来:

DeepSeek+本地知识库 = 离线安全专家
image-20250207221049577

这里选择Ollama

用我们刚刚下载的 DeepSeek-R1:8b 大模型

DeepSeek+本地知识库 = 离线安全专家
image-20250207221228331

一直下一步,然后为工作区起个名字

DeepSeek+本地知识库 = 离线安全专家
image-20250207221354106

然后即可创建成功

DeepSeek+本地知识库 = 离线安全专家
image-20250207221927940

然后进行一些设置

LLM首选项

这里之前安装的时候已经设置了

DeepSeek+本地知识库 = 离线安全专家
image-20250207222044131

向量数据库

向量数据库不用动即可,使用自带的(ps:如果没有选择安装目录,默认在c盘,如果后续有需要可以挪走)

DeepSeek+本地知识库 = 离线安全专家
image-20250207222104439

Embedder首选项

嵌入模型配置,可以使用自带的

DeepSeek+本地知识库 = 离线安全专家
image-20250207223212974

也可以通过 Ollama 使用 nomic-embed-text 作为 Embedder (本例使用这个)

ollama pull nomic-embed-text
DeepSeek+本地知识库 = 离线安全专家
image-20250207223653494
DeepSeek+本地知识库 = 离线安全专家
image-20250207224056228

Max Embedding Chunk Length” ,定义了在将文本分割成多个块(Chunk)时,每个块的最大长度,数字越小代表文本文件会被切分的更加细致。最好改为128~512之间,这里设置为512

这是DeepSeek 给出的两者的对比:

DeepSeek+本地知识库 = 离线安全专家
image-20250207223147682

文件相似度阈值

最后在当前聊天的设置中将“文档相似性阈值”:

DeepSeek+本地知识库 = 离线安全专家
image-20250207224540100

这个可以根据实际搜索的内容与知识库的相关性灵活性设置(这里设置为高)

四、投喂文档&使用

首先点击上传按钮:

DeepSeek+本地知识库 = 离线安全专家
image-20250207225115631

支持多种类型的文档,直接拖进来即可(支持直接把文件夹丢过去)

DeepSeek+本地知识库 = 离线安全专家
image-20250207230553055

最下方支持网址提交,当你输入网址后,点击“Fetch Website”按钮,爬虫就会对指定的网址内容进行爬取。

拖进来之后,全部选中,接着点击“Move to Workspace”,将所有文件移入我们的WorkSpace:

DeepSeek+本地知识库 = 离线安全专家
image-20250207230732174

最后点击“Save and Embed”按钮等待完成

完成后,返回聊天框,就可以在AnythingLLM中进行基于检索增强生成(RAG)的聊天或问答了

效果:

DeepSeek+本地知识库 = 离线安全专家
image-20250208094233555
DeepSeek+本地知识库 = 离线安全专家
image-20250208094254540
DeepSeek+本地知识库 = 离线安全专家
image-20250208110722429
DeepSeek+本地知识库 = 离线安全专家
image-20250208110706686
DeepSeek+本地知识库 = 离线安全专家
image-20250208111349663

点个【 在看 】,你最好看

原文始发于微信公众号(哈拉少安全小队):DeepSeek+本地知识库 = 离线安全专家

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年2月9日01:13:36
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   DeepSeek+本地知识库 = 离线安全专家https://cn-sec.com/archives/3714657.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息