本地部署 deepseek-r1 模型

admin 2025年2月11日00:16:01评论10 views字数 803阅读2分40秒阅读模式
    deepseek的亮相更像是“巨石”入水激起的高大水花,低成本,低门槛,弱监管,自从ChatGPT问世,各AI可谓是百花齐放,百家争鸣。最离谱的是有些家伙直接训练起来了“赛博神棍”,用AI来批八字,解六壬。
身为赛博保安,不能落伍,给他喂出一个专家来!!!来看看过些年头AI在安全行业乃至各行各业能被用成什么样,想想就刺激。
我直接把笔记本拿来玩玩,16G内存,8G显存(垃圾卡)
首先安装Ollama
Ollama 是一个开源的人工智能对话平台,旨在提供便捷的本地化 AI 模型部署和自定义功能。它允许用户在本地计算机上运行类似 ChatGPT 的对话模型,而不需要依赖云服务。Ollama 支持使用不同的预训练模型,可以根据需求加载不同的模型,甚至允许用户加载自定义模型。
https://ollama.com/download
本地部署 deepseek-r1 模型
二、下载运行deepseek-r1
下载安装好后,我们可以在Ollama网站里搜索deepseek,我们选择deepseek-r1
本地部署 deepseek-r1 模型
本地部署 deepseek-r1 模型
选择7b,复制粘贴命令
ollama run deepseek-r1:7b
本地部署 deepseek-r1 模型
本地部署 deepseek-r1 模型
(如果下载完成后报错Error: Post "http://127.0.0.1:11434/api/show": dial tcp 127.0.0.1:11434: connectex: No connection could be made because the target machine actively refused it.一般是11434端口被占用了,应用占用的话干掉进程就行)
         当然这是最简单的开箱即用,就是乐呵乐呵,真要实际应用后续要补充算力(台式+多显卡),尝试进行训练和微调,不能落伍啊,期待AI吸收多人经验,拥有自动化渗透的实力,哈哈哈,解放双手。
(兄弟们!快来把你们的宝贝笔记丢过来,咱直接显卡阵列跑671B好吧。)

原文始发于微信公众号(Secu的矛与盾):本地部署 deepseek-r1 模型

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年2月11日00:16:01
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   本地部署 deepseek-r1 模型https://cn-sec.com/archives/3689117.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息