LobeChat
介绍
现代化设计的开源 ChatGPT/LLMs 聊天应用与开发框架 支持语音合成、多模态、可扩展的(function call)插件系统 一键免费拥有你自己的 ChatGPT/Gemini/Claude/Ollama 应用
功能特点
-
LobeChat 支持文件上传与知识库功能,你可以上传文件、图片、音频、视频等多种类型的文件,以及创建知识库,方便用户管理和查找文件。同时在对话中使用文件和知识库功能,实现更加丰富的对话体验。
-
LobeChat 还基于 Ollama 支持了本地模型的使用,让用户能够更灵活地使用自己的或第三方的模型
-
LobeChat 已经支持 OpenAI 最新的 gpt-4-vision 支持视觉识别的模型,这是一个具备视觉识别能力的多模态应用。 用户可以轻松上传图片或者拖拽图片到对话框中,助手将能够识别图片内容,并在此基础上进行智能对话,构建更智能、更多元化的聊天场景。
-
LobeChat 支持文字转语音(Text-to-Speech,TTS)和语音转文字(Speech-to-Text,STT)技术,这使得我们的应用能够将文本信息转化为清晰的语音输出,用户可以像与真人交谈一样与我们的对话助手进行交流。
在 LobeChat 中使用 Ollama
在 LobeChat 中,默认开启了一些常用的大语言模型,例如 llama3、 Gemma 、 Mistral 等。当你选中模型进行对话时,会提示你需要下载该模型。
启动ollama后,可以在 设置 -> 语言模型 中找到 Ollama 的配置选项,你可以在这里配置 Ollama 的代理、模型名称等。
Open WebUI
介绍
Open WebUI是一个可扩展、功能丰富、用户友好的自托管WebUI,旨在完全离线操作。它支持各种LLM运行程序,包括Ollama和OpenAI兼容的API。
功能特点
-
轻松安装:使用Docker或Kubernetes(kubectl、kustoize或helm)无缝安装,提供轻松的体验,同时支持ollama和cuda标记的图像。
-
Ollama/OpenAI API集成:轻松集成与OpenAI兼容的API,与Ollama模型一起进行多功能对话。自定义OpenAI API URL以链接LMStudio、GroqCloud、Mistral、OpenRouter等。
-
Pipelines,Open WebUI插件支持:使用Pipelines插件框架将自定义逻辑和Python库无缝集成到Open WebUI中。启动您的Pipelines实例,将OpenAI URL设置为Pipelines URL,探索无尽的可能性。示例包括函数调用、控制访问的用户速率限制、使用Langfuse等工具进行使用监控、使用LibreTranslate进行多语言支持的实时翻译、有毒消息过滤等。
在 Open WebUI 中使用 Ollama
其中https://example.com 是ollama服务地址
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
访问本地http://127.0.0.1:3000,配置ollama地址即可使用。
Chatbox
介绍
Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。
功能特点
-
与文档和图片聊天:无论是文档、图片还是代码,只需将您的文件发送给 Chatbox。它将理解内容并提供智能响应,在每次交互中提高您的生产力和创造力。
-
代码神器:生成与预览:编码更高效,不再费力。AI 助手让创意化为现实 - 更智能,更迅速。
-
实时联网搜索与查询:通过 AI 联网搜索获取即时的信息。保持最新事实、新闻和来自互联网的数据。
-
AI 生成的图表可视化见解:无缝集成到对话中,这些可视化效果清晰地阐明复杂概念、趋势和统计数据。在需要时使用清晰、可定制的视觉辅助工具增强您的理解力和决策力。
在 Chatbox 中使用 Ollama
在 Chatbox 中连接本地 Ollama 服务,在 Chatbox 中打开设置,在模型提供方中选择 Ollama,即可在模型下拉框中看见你运行的本地模型。
点击保存,即可正常聊天使用。
原文始发于微信公众号(土拨鼠的安全屋):三大Ollama WebUI 客户端神器评测
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论