本地运行 Llama 2 简单教程

admin 2024年10月13日01:49:51评论9 views字数 273阅读0分54秒阅读模式

你也可以在 M1/M2 Mac、Windows、Linux 甚至手机上本地运行 Llama。在本地运行 Llama 2 的不需要互联网连接。

在你的终端中执行以下命令:

# 下载7B模型 (3.8 GB)ollama pull llama2# 或者下载13B模型 (7.3 GB)ollama pull llama2:13b

使用:

ollama run llama2ollama run llama2:13b

注意:Ollama 建议至少有 8 GB RAM 来运行 3B 模型,16 GB 来运行 7B 模型,32 GB 来运行 13B 模型。

试一下7B模型:

本地运行 Llama 2 简单教程

原文始发于微信公众号(赛哈文):本地运行 Llama 2 简单教程

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年10月13日01:49:51
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   本地运行 Llama 2 简单教程https://cn-sec.com/archives/1921652.html

发表评论

匿名网友 填写信息