全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

admin 2025年2月26日08:52:10评论10 views字数 1579阅读5分15秒阅读模式

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

--->目录<---

0x01——ollama,llama3.1简介
0x02——效果展示
0x03——计算机配置要求
0x04——Windows部署ollama
0x05——本地部署llama3.1大模型
0x06——部署Web可视化界面
0x07——数据集微调模型
0x01、 ollama,llama3.1简介

--->Ollama简介

Ollama 是一个开源项目,它是大语言模型(LLM)服务工具,它能在本地计算机上快速部署和管理大型语言模型,它支持多种开源大型语言模型,如 Llama 3.1, Phi 3, Mistral, Gemma 2等

--->llama简介

llama全称是Large Language Model Meta AI,是由Meta AI(原FacebookAI研究实验室)研究人员发布的一个预训练语言模型。该模型最大的特点就是基于以较小的参数规模取得了优秀的性能。根据官网提供的信息,LLaMA的模型包含4个版本,最小的只有70亿参数,最大的650亿参数。
0x02、 效果展示

--->当前windows配置:虚拟机8g4核

不管是ollama-webui还是命令行运行,cpu都拉满了,配置低反应会有点慢。

想要快就上高配置+GPU

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

提问:

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

0x03、 计算机配置要求

至少要有8GB的RAM来运行7B型号,16GB的RAM来运行13B的型号,32GB的RAM 来运行33B 型号。

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

0x04、Windows部署

--->安装ollama

官网地址:https://ollama.com/

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

官网提供了mac,linux,windows三种系统的安装包。

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

我们是windows系统,下载安装完成后它就自动运行了。

浏览器访问:http://127.0.0.1:11434/ 

可看到ollama已经运行

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

--->更改模型文件路径

模型默认安装路径如下

C:Users%username%.ollamamodels

更改用户变量

变量名:OLLAMA_MODELS变量值:D:ollamamodels(示例路径,请根据实际情况调整)

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

--->互联网部署

Ollama服务监听的网络地址默认为127.0.0.1,如果让其他用户可访问,需要设置OLLAMA_HOST为0.0.0.0

windows的方法是编辑环境变量,创建一个新变量OLLAMA_HOST,值为0.0.0.0,然后重启Ollama。

OLLAMA_PORT:默认端口是11434

OLLAMA_ORIGINS:星号表示允许域。(google.com,linkedin.com)

--->常用参数配置

其他配置可通过帮助参数进行查看:

ollama serve -h

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

0x05、本地部署llama3.1大模型

--->拉取llama3.1大模型

从官网给的命令直接执行拉取

https://ollama.com/library/llama3.1

ollama run llama3.1

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

拉取完成,现在就可以直接使用了

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

当然,这样不是特别美观,当问一些编码问题时,可能就需要web-ui了。

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

0x06、部署Web可视化界面

页面效果

全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

--->下载并安装 Node.js 工具:https://nodejs.org/zh-cn

--->安装npm,完成git clone进入目录再执行

npm install

--->git clone https://github.com/ollama-webui/ollama-webui-lite.git

--->cd ollama-webui-lite

--->安装依赖项

npm ci

--->在开发模式下运行应用程序

npm run dev

浏览器访问:http://localhost:3000 

0x07、 数据集微调模型

这里就提一下,有兴趣的可以去弄。

--->LLama模型+Lora微调

原文始发于微信公众号(偏远酒馆):全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年2月26日08:52:10
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   全民都能用上ChatGPT—【本地部署Llama3.1 AI模型】https://cn-sec.com/archives/3773856.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息