在硅谷,DeepSeek被称作“来自东方的神秘力量”。SemiAnalysis首席分析师认为,DeepSeek V2论文“可能是今年最好的一篇”。OpenAI前员工Andrew Carr认为论文“充满惊人智慧”,并将其训练设置应用于自己的模型。而OpenAI前政策主管、Anthropic联合创始人Jack Clark认为,DeepSeek“雇佣了一批高深莫测的奇才”,还认为中国制造的大模型,“将和无人机、电动汽车一样,成为不容忽视的力量。” 腾讯网
实验环境:
主机名 | IP | 账号 | 环境 |
xxx | 云主机 | xxx |
|
Widnow部署
首先打开Ollama的官网:https://ollama.com/
根据自己的环境选择对应的系统,安装完成之后,检查一下是否安装成功
ollama -v //如果能看到返回对应的版本号,就说明安装成功了。
模型安装
根据自己的显卡的实际情况,进行选择:
|
|
|
1.5B Qwen DeepSeek R1 |
|
4GB+ |
7B Qwen DeepSeek R1 |
|
8GB+ |
8B Llama DeepSeek R1 |
|
8GB+ |
14B Qwen DeepSeek R1 |
|
12-16GB |
32B Qwen DeepSeek R1 |
|
24-32GB |
70B Llama DeepSeek R1 |
|
48GB+ |
ollama run deepseek-r1:8b //服务器硬盘满了,就用最小的模型了
看见这个界面就是安装成功了!也可以直接用cmd提问
搭建WEB端
访问下面插件地址, Chrom与 Edge通用的
https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo
安装完成之后,点击插件,会跳转到这个页面。
Ollama is running // 说明我们的 Ollama 服务是正常启动的。
配置模型
选择模型,根据自己电脑显卡进行选择
设置相关语言以及配置学习环境
https://github.com/n4ze3m/page-assist/blob/main/docs/connection-issue.md#solutions
原文始发于微信公众号(太乙Sec实验室):零基础:从搭建DeepSeek开始
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论