DeepSeek-R1模型在各项指标直逼甚至超越OpenAI及同类产品,迅速成为业界焦点。更令人惊喜的是该模型基于MIT协议免费开源,允许任何公司或个人自由商用,无需任何授权限制,一时间在AI界掀起了巨大波澜。
最近DeepSeek服务被外海攻击,有时候无法访问,既然DeepSeek-R1是开源的,那么我们其实可以部署自己的DeepSeek-R1模型,如果再结合全栈AI助手,效果将更加完美。
废话不多说,直接上教程教怎么本地部署DeepSeek-R1服务。
一、安装ollama
用浏览器打开 https://ollama.com/
点击download按钮,下载ollama.
选择对应的操作系统版本下载。
点击Install安装。
二、根据配置安装合适的版本的deepseek R1模型
打开https://ollama.com/search 模型页:
选择deepseek-r1模型: https://ollama.com/library/deepseek-r1
根据你电脑的硬盘及显存(内存)大小,选择不同大小参数的模型。这里为了演示,选择了1.5b的模型:
在终端中运行ollama run deepseek-r1:1.5b 进行安装deepseek-r1:1.5b模型。
根据显存选择合适的版本,有条件的建议上32B或者70B,效果非常好。
三、对话
安装完之后就可以直接在命令行对话了。
以下内容为可选项
配合 全栈AI助手 (可选)
ollama 默认在命令行中对话,UI界面并不友好,如果配合全栈AI助手 也可以有更好的交互体验。
通过以下步骤用全栈AI助手接入DeepSeek-R1。
打开全栈AI助手网站:https://aichat.p2hp.com/
测试
左上角选择“Ollma”模型,并在后面的自定义模型中输入你安装的deepseek-r1:1.5b。
OLLAMA调用 API跨域配置:
设置环境变量 OLLAMA_ORIGINS:
打开系统属性(可以通过Win+R,输入sysdm.cpl,然后回车)。
点击“高级”选项卡,然后点击“环境变量”按钮。
在“用户变量”区域,点击“新建”。
设置变量名为OLLAMA_ORIGINS,变量值为*(这表示允许所有来源的跨域请求)。
点击“确定”保存设置。
重启Ollama服务
确保关闭并重新打开命令行窗口,使新的环境变量生效。
重新启动Ollama服务。(结束所有ollama进程,再运行ollama run deepseek-r1:1.5b)
然后就可以开始愉快的对话了!!!
以上就是一文读懂!DeepSeek R1超简易本地安装运行部署教程的详细内容。
以下是简单方法:
1. 环境准备
在开始之前,确保你的计算机满足以下要求:
操作系统:Windows 10/11、macOS 或 Linux。
Python 版本:Python 3.8 或更高版本。
- **硬件要求**:
- CPU:推荐多核处理器(如 Intel i5 或更高)。
- 内存:至少 8GB RAM(16GB 或以上更佳)。
- 硬盘:至少 10GB 可用空间。
- GPU(可选):如果有 NVIDIA GPU,可以安装 CUDA 以加速运行。
2. 安装步骤
2.1 安装 Python 和依赖工具
1. 安装 Python
访问 [Python 官网](https://www.python.org/downloads/) 下载并安装 Python。
- 安装时勾选 Add Python to PATH”。
2. **安装 pip**:
- pip 是 Python 的包管理工具,通常随 Python 一起安装。
- 检查 pip 是否安装成功:
bash
pip --version
3. 安装虚拟环境工具(可选)
- 推荐使用虚拟环境隔离依赖:
bash
pip install virtualenv
2.2 下载 DeepSeek R1
1. 访问 DeepSeek 官网或 GitHub 仓库,下载 DeepSeek R1 的安装包或源码。
- 如果提供的是源码,解压到本地目录。
- 如果提供的是安装包,直接运行安装程序。
2. 进入 DeepSeek R1 的目录:
```bash
cd path/to/deepseek-r1
2.3 安装依赖
1. 使用 pip 安装所需的 Python 依赖:
```bash
pip install -r requirements.txt
- 如果项目提供了 `requirements.txt` 文件,上述命令会自动安装所有依赖。
2. 如果有 GPU 并希望使用 CUDA 加速,安装 PyTorch 的 GPU 版本:
```bash
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
2.4 配置 DeepSeek R1
1. 打开 DeepSeek R1 的配置文件(通常是 `config.yaml` 或 `settings.py`)。
2. 根据需求修改配置,例如:
- 模型路径。
- 输入输出目录。
- GPU 加速设置(如果有 GPU)。
2.5 下载预训练模型
1. 如果 DeepSeek R1 需要预训练模型,从官方提供的链接下载模型文件。
2. 将模型文件放到指定目录(通常是 `models/` 文件夹)。
3. 运行 DeepSeek R1
3.1 启动 DeepSeek R1
1. 在终端中运行以下命令启动 DeepSeek R1:
bash
python main.py
- 如果是 GUI 版本,直接双击运行可执行文件。
2. 如果一切正常,DeepSeek R1 会启动并显示运行日志。
3.2 测试功能
1. 根据 DeepSeek R1 的功能,输入测试数据(如文本、图片等)。
2. 查看输出结果,确保功能正常运行。
4. 常见问题**
4.1 依赖安装失败
- 确保 Python 和 pip 版本正确。
- 尝试使用国内镜像源安装依赖:
bash
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
4.2 GPU 加速未生效
- 检查 CUDA 和 PyTorch 是否安装正确:
```bash
python -c "import torch; print(torch.cuda.is_available())"
- 如果返回 `True`,说明 GPU 加速已启用。
3 内存不足
- 如果运行过程中内存不足,尝试减少批量大小(batch size)或使用 CPU 模式。
5. 进阶配置**
多线程支持:在配置文件中启用多线程,提高处理速度。
API 服务:将 DeepSeek R1 部署为 API 服务,方便其他程序调用。
定期更新:关注 DeepSeek 官方更新,及时获取最新功能和优化。
通过以上步骤,你可以轻松在本地安装和运行 DeepSeek R1,享受其强大的 AI 功能!如果有更多问题,可以参考官方文档或社区支持。
原文始发于微信公众号(黑客技术家园):一文读懂!DeepSeek R1超简易本地安装运行部署教程
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论