1 前言
n8n作为开源自动化平台,凭借其可视化节点编排能力和600+预置连接器,为开发者提供了低代码的自动化解决方案。今天就搭建一个n8n,并结合之前搭建的ollama-deepseek模型,创建一个本地的智能体。
2 搭建过程
(1)访问node.js官网
通过以下地址访问nodejs官网
https://nodejs.org/zh-cn/download
以win10系统安装nodejs为例,点击msi程序进行安装
按照提示一步步安装即可
等待安装完成之后,打开终端
输入
node -v
再输入
npm -v
这里出现了一些错误,如未遇到可以忽略,于是通过搜索,解决如下:
就可以成功查看到npm的版本了,通过以上两个,可以发现nodejs安装成功了
(2)安装n8n
通过输入以下命令进行安装:
npm install n8n -g
验证n8n是否安装成功
输入
n8n -v
(3)开启服务
开启n8n服务,输入n8n
拉到最后,有一个网址
(4)打开网址
打开网址,输入
http://localhost:5678
当然也可以通过以下命令更改默认的端口
在命令行中输入:
n8n --port=8085
(5)基础配置
在登录页面中,输入邮箱、名称、密码等信息,点击下一步
这里可以选择跳过,或者向你的邮箱发送licensekey,我这里选择跳过
打开主界面如下:
点击加号按钮,在右边点击加号,可以搜索一些工作流
选择点击“On chat message”,然后点击返回“Back to canvas”。画布中间会出现一个新节点:
点击加号,选择advanced AI
选择BasicLLM Chain,后按返回键返回
点击加号,选择模型
选择ollamachatmodel
输入ollama服务所在的地址,我这里不是在同一台上,于是输入的是另一台服务器的ip地址
点击保存,会出现连接成功的提示
在ollama服务器中,安装好deepseek,开启相应的deepseek模型,例如deepseek-r1,并打开deepseek
(6)试运行
点击“openchat“按钮,可以进行测试模型
可以进行提问
例如接着问:“在数值比较中,9.11和9.3哪个比较大”,可以给出答案
由于我本地搭建的ollama服务器配置比较低,运行起来可能比较慢,你也可以配合Deepseek-API进行使用,输出答案会快一点。
欢迎关注「技术分享交流」公众号 ,如果有建议或者疑问的话,欢迎大家评论留言,如果喜欢公众号文章的话可以点【在看】,您的鼓励就是我的动力哈!!!
原文始发于微信公众号(技术分享交流):利用n8n结合ollama-Deepseek大模型创建智能体
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论