ollama+deepseek+AnythingLLM=本地知识库大模型

admin 2025年2月5日23:28:38评论7 views字数 527阅读1分45秒阅读模式
年前一个月以及过年期间实在是没空(lande)更新。现在匆匆更新一篇。
最近deepseek挺火的,所以想出一篇跟llm有关的文章,以辅助工作。
首先是硬件配置(这个都逃不了,听说deepseek大模型用amd显卡还能更省钱?)
CPU:i9-10900X 
RAM:64GB
GPU:RTX 3090ti
开始操作:
首先是安装ollama:
https://ollama.com/download/windows
ollama+deepseek+AnythingLLM=本地知识库大模型
然后安装Anything LLM
https://anythingllm.com/download
接着
终端选择一个合适大小的模型,这里挑了一个较小的14b模型
https://ollama.com/library/deepseek-r1
ollama+deepseek+AnythingLLM=本地知识库大模型
在终端输入如下命令,如果没有ollama命令则需要配置环境变量
ollama run deepseek-r1:14b
ollama+deepseek+AnythingLLM=本地知识库大模型
好了,然后配置anything llm
ollama+deepseek+AnythingLLM=本地知识库大模型
接着代理技能全开
ollama+deepseek+AnythingLLM=本地知识库大模型
再然后可以放你的文本信息
ollama+deepseek+AnythingLLM=本地知识库大模型
ollama+deepseek+AnythingLLM=本地知识库大模型
导入进去后 再move to workspace,等待几分钟即可。
再去问答,发现它已经能读到知识库了。用来做非联网的本地的知识库够够的。
ollama+deepseek+AnythingLLM=本地知识库大模型

原文始发于微信公众号(网络安全知识):ollama+deepseek+AnythingLLM=本地知识库大模型

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年2月5日23:28:38
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   ollama+deepseek+AnythingLLM=本地知识库大模型https://cn-sec.com/archives/3700626.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息