离线部署DeepSeek/QWen大模型

admin 2025年2月11日15:23:47评论30 views字数 764阅读2分32秒阅读模式
昨天,介绍了DeepSeek的部署,有些人问如何离线部署,那篇文章中没有讲,既然有这个需求,中午花了点时间介绍下离线部署,两种不同的方法部署DeepSeek、Qwen。
一、DeepSeek离线部署
1、下载网盘中的大模型

链接: https://pan.baidu.com/s/1Q2qz-wr7p8rEwkzKbzTDzQ 提取码: awgu

选择任一个压缩包下载下来,压缩包里面是这样的,解压到你指定的位置:
离线部署DeepSeek/QWen大模型
2、修改ollama存储大模型的位置
默认为c:usersadmininstrator.ollamastorage目录下,可修改到D盘去(空间大的地方),
离线部署DeepSeek/QWen大模型
这时,修改ollama的存储指向,在环境变量里,
离线部署DeepSeek/QWen大模型
好了,当启动ollama list时,你会发现它存在了。不同的参数的大模型都可以堆叠融合进来。
二、QWen离线部署
1、在ModelScope(魔塔社区https://modelscope.cn/)的模型库找到qwen2.5-Coder-7b-instruct这种(需要哪种下哪种,以这个为例),
离线部署DeepSeek/QWen大模型
它和上面deepseek的压缩包不同;它使用了专为高效推理设计的大模型文件格式gguf。
2、然后在我们的ollama窗口执行/show modefile命令,
离线部署DeepSeek/QWen大模型
3、将输出内容保存为文件Modelfile,并修改FROM后面的指向位置,例如:
离线部署DeepSeek/QWen大模型
4、将Makefile文件与下载好的GGUF文件放到同一个文件夹
离线部署DeepSeek/QWen大模型
5、然后运行ollama命令
ollama create qwen2.5-coder -f Modelfile
离线部署DeepSeek/QWen大模型
6、部署好了,但这个latest不太喜欢,改个名,体现出 7b-instrutct名
离线部署DeepSeek/QWen大模型
7、加载起来,问候一下
离线部署DeepSeek/QWen大模型
好了,有点仓促,但应该就是这样,部署到内网中了。

原文始发于微信公众号(MicroPest):离线部署DeepSeek/QWen大模型

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年2月11日15:23:47
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   离线部署DeepSeek/QWen大模型https://cn-sec.com/archives/3727680.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息