DeepSeek R1 模型本地部署教程

admin 2025年2月5日00:46:45评论29 views字数 1189阅读3分57秒阅读模式
DeepSeek R1 模型本地部署教程

前言

最近DeepSeek很火,源码也是开源的,准备本地搭建一个,留着打比赛的时候用

现在打比赛没有AI是真的用不了啊

电脑性能还行,就配一个14B的吧

一、环境准备

(一)硬件需求

  • 最低配置:CPU(支持AVX2指令集)+ 16GB内存 + 30GB存储。
  • 推荐配置:NVIDIA GPU(RTX 3090或更高)+ 32GB内存 + 50GB存储。

(二)软件依赖

  • 操作系统:Windows、macOS或Linux。
  • Docker:如果使用Open Web UI,需要安装Docker。

二、安装Ollama

公众号回复OllamaSetup获取安装包,运行安装

验证版本号

ollama --version
DeepSeek R1 模型本地部署教程
image-20250202180423772

部署DeepSeek模型

可以根据下表来选择安装什么样的版本,我装的是14B

  • 入门级:1.5B版本
  • 中端:7B或8B版本
  • 高性能:14B、32B或70B版本

安装DeepSeek

ollama run deepseek-r1:14b
其他版本
ollama run deepseek-r1:8b  # 8B版本ollama run deepseek-r1:14b # 14B版本ollama run deepseek-r1:32b # 32B版本
自定义安装目录

Ollama默认会将模型下载到~/.ollama目录。如果你想自定义安装目录,可以通过设置环境变量OLLAMA_MODELS来指定新的路径。

对于Linux/macOS:

在终端中运行以下命令,将directory替换为你想要的目录:

export OLLAMA_MODELS=directory

对于Windows:

在命令提示符或PowerShell中运行以下命令:

set OLLAMA_MODELS=F:directory
DeepSeek R1 模型本地部署教程
image-20250202194607294

使用Open Web UI

首先要安装docker,安装包上面已经给出

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:maindocker: error during connect: Head "http://%2F%2F.%2Fpipe%2FdockerDesktopLinuxEngine/_ping": open //./pipe/dockerDesktopLinuxEngine: The system cannot find the file specified.See 'docker run --help'.
DeepSeek R1 模型本地部署教程
image-20250202215659917

POWER!!!

DeepSeek R1 模型本地部署教程

原文始发于微信公众号(云淡纤尘):DeepSeek R1 模型本地部署教程

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年2月5日00:46:45
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   DeepSeek R1 模型本地部署教程https://cn-sec.com/archives/3694993.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息