本地运行 Llama 2 简单教程

admin 2024年10月13日01:49:51评论47 views字数 273阅读0分54秒阅读模式

你也可以在 M1/M2 Mac、Windows、Linux 甚至手机上本地运行 Llama。在本地运行 Llama 2 的不需要互联网连接。

在你的终端中执行以下命令:

# 下载7B模型 (3.8 GB)ollama pull llama2# 或者下载13B模型 (7.3 GB)ollama pull llama2:13b

使用:

ollama run llama2ollama run llama2:13b

注意:Ollama 建议至少有 8 GB RAM 来运行 3B 模型,16 GB 来运行 7B 模型,32 GB 来运行 13B 模型。

试一下7B模型:

本地运行 Llama 2 简单教程

原文始发于微信公众号(赛哈文):本地运行 Llama 2 简单教程

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年10月13日01:49:51
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   本地运行 Llama 2 简单教程https://cn-sec.com/archives/1921652.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息