Ollama 是一款开源的大型语言模型(LLM)服务工具,旨在简化大语言模型在本地运行的流程,降低开发者和用户使用这些强大模型的门槛。它让用户能够轻松地在自己的计算机上部署和使用各种大模型,避免了复杂的设置和云端依赖,使得大规模语言模型的使用变得更加高效和便捷。
用一句话来概况,Ollama是简单易上手的本地大模型,即使是新手、小白也能快速搭建并使用,也适用于离线模式。
Ollama官网地址:
首先,到官网 https://ollama.com/ 首页,点击Download
再选择合适的版本,本人用的Windows,后续也是在Windows下如何安装,如需要在其他系统下安装,请更换安装教程
双击运行安装程序,默认是按照在c盘无法自定义,一直点击install就行。
打开终端,输入ollama,出现以下内容表示安装成功
默认安装后的目录:C:UsersusernameAppDataLocalProgramsOllama
默认安装的模型目录:
C:Usersusername .ollama
默认的配置文件目录:C:UsersusernameAppDataLocalOllama
在环境变量中,在环境变量窗口中,点击“新建”创建一个新的系统变量,变量名为OLLAMA_MODELS变量值就是自己的文件存放路径
在github上选择一个模型 地址:https://github.com/ollama/ollama
打开终端,选择好模型后,输入需要运行的模型,会自动下载,下载和运行的命令是一样的,本人推荐使用llama3.1 模型或者llama3.2 模型
Ollama 在 Windows 系统下默认开机自启,如果不需要开机自启,可以通过以下步骤取消。
打开任务管理器,点击 启动应用,找到 ollama.exe ,右键点击 禁用 即可。
不同系统下安装Ollama模型教程:https://github.com/datawhalechina/handyollama/tree/main/docs/C2
原文始发于微信公众号(星悦安全):CTF比赛中无法上网怎么办?想百度却百度不了?别担心,这款本地AI一键解决你的问题!
- 左青龙
- 微信扫一扫
- 右白虎
- 微信扫一扫
评论