你也可以在 M1/M2 Mac、Windows、Linux 甚至手机上本地运行 Llama。在本地运行 Llama 2 的不需要互联网连接。
在你的终端中执行以下命令:
# 下载7B模型 (3.8 GB)
ollama pull llama2
# 或者下载13B模型 (7.3 GB)
ollama pull llama2:13b
使用:
ollama run llama2
ollama run llama2:13b
注意:Ollama 建议至少有 8 GB RAM 来运行 3B 模型,16 GB 来运行 7B 模型,32 GB 来运行 13B 模型。
试一下7B模型:
原文始发于微信公众号(赛哈文):本地运行 Llama 2 简单教程
- 左青龙
- 微信扫一扫
- 右白虎
- 微信扫一扫
评论