AI 本地部署中的 ollama 是什么?

admin 2025年2月5日01:01:06评论22 views字数 1021阅读3分24秒阅读模式
Ollama 是一个开源工具,专为在本地计算机上高效运行大型语言模型(LLM,如 deepseek-r1、qwen2.5 等)而设计。它简化了模型的下载、部署和管理流程,让用户无需复杂配置即可在本地体验和开发基于大语言模型的应用。
从 ollama 的网站上可以查看所有的模型信息:
AI 本地部署中的 ollama 是什么?
Windows 上直接下载安装包,一路 Next 即可。
Linux 上使用命令行安装:
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz$ sudo tar -C /usr -xzf ollama-linux-amd64.tgzollama serveollama -v
AI 本地部署中的 ollama 是什么?
也可使用其提供的 install.sh 脚本安装,安装前阅读其脚本,了解安装过程会干些啥:
$ curl -fsSL https://ollama.com/install.sh -o ollama-install.sh
如果自己不想读脚本,可以将脚本内容丢给 deepseek,让 AI 帮你阅读脚本并汇总主要步骤。

以下是该安装脚本的主要步骤汇总:

AI 本地部署中的 ollama 是什么?

与手工安装不同的地方是,自动安装会处理显卡驱动的问题:

AI 本地部署中的 ollama 是什么?

其中会设计到使用 lsmod 、modprobe 等 linux kernel module 相关的命令。如果你操作的是和别人共享的服务器,请谨慎对待。因为安装完 ollama 后还会开启 11434 端口,如果是公网GPU服务器,乱开端口有被入侵的风险。

当前测试的服务器的硬件配置为:
cat /proc/cpuinfo && free -g && nvidia-smi
将查硬件配置的命令输出丢给 kimi 让其汇总一下:
AI 本地部署中的 ollama 是什么?
安装完成后可以先下个 1.5b 的 deepseek-r1 模型试试。
./ollama run deepseek-r1:1.5b
AI 本地部署中的 ollama 是什么?
deepseek-r1 1.5b 大小约1.1GB
AI 本地部署中的 ollama 是什么?
默认安装的 ollama 服务不支持联网搜索功能,如果需要查询互联网上的信息,当前最便捷的办法还是使用AI公司提供的服务。比如问 deepseek-r1 模型的大小和运行需求,通过 kimi 发问:
AI 本地部署中的 ollama 是什么?
在比如问: deepseek-r1:1.5b 其中的 b 代表什么?
AI 本地部署中的 ollama 是什么?
也可以问 ollama 如何联网、如何安装,最后你会发现,所有博客、公众号的内容都变成了 AI 的素材,人们又通过 AI 获取信息写公众号,最后闭环了...
全文完。

原文始发于微信公众号(生有可恋):AI 本地部署中的 ollama 是什么?

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年2月5日01:01:06
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   AI 本地部署中的 ollama 是什么?https://cn-sec.com/archives/3692997.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息