迷你主机跑deepseek-r1本地大数据模型

admin 2025年2月18日20:59:01评论66 views字数 517阅读1分43秒阅读模式
现在开源LLM如此之火,我也跟着玩了一把。测试了m4 pro mac mini与8845hs迷你主机。
以deepseek-r1为例,使用最简单的ollama方式来部署。经过测试,m4 pro跑32b版本有点慢,跑14b还行。8845迷你主机可以自己单独上内存与oculink外置显示,不上的话,我用64g内存也是可以跑的,780m的显卡跑7b与14b都还可以,32b也慢了一点,不过整体比m4要快一点。
配置方法,在mac上执行下面命令安装LLM管理工具:
brew install ollama
在windows上下载exe安装完启动ollama程序就算准备好了。接着执行:
ollama startollama pull deepseek-r1:14bollama run deepseek-r1:34--verbose
迷你主机跑deepseek-r1本地大数据模型
迷你主机跑deepseek-r1本地大数据模型
成功后,会给出命令提示符状态,输入提问即可:
迷你主机跑deepseek-r1本地大数据模型
完整的系统配置指南可以参考这里的流程介绍:
https://github.com/feicong/re-docs
下面我给出了JD上面我用到的设备官方购买链接,想玩玩的可以直接跳转购买,欢迎大家进群交流。

原文始发于微信公众号(软件安全与逆向分析):迷你主机跑deepseek-r1本地大数据模型

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年2月18日20:59:01
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   迷你主机跑deepseek-r1本地大数据模型https://cn-sec.com/archives/3752069.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息