用过去写的Obsidian笔记Markdown文档,生成一个本地的知识库,通过GPT或者本地大语言模型(LLM), 通过对话进行提问,如果之前写的Obsidian笔记都原创的文档,GPT和本地大语言模型,参考这些文档进行回答。
如果,只是基于当前打开活动的Obsidian笔记文档进行回答,ChatBMO就可以实现,想对所有的Obsidian笔记文档进行自然语言问答,需要对之前的所有笔记文本进行嵌入,可以使用Smart Connections插件完成所有笔记的嵌入,问答使用的大语言模型可以是ChatGPT4、ChatGPT3.5 Turbo、llama3等大语言模型。
![Obsidian笔记实现本地知识库(llama3、RAG) Obsidian笔记实现本地知识库(llama3、RAG)]()
在启动Obsidian时,Smart Connections会对文档进行初始化操作,文档变更后会同步更新,在Smart View里可以看到关联参考的文档。
![Obsidian笔记实现本地知识库(llama3、RAG) Obsidian笔记实现本地知识库(llama3、RAG)]()
![Obsidian笔记实现本地知识库(llama3、RAG) Obsidian笔记实现本地知识库(llama3、RAG)]()
![Obsidian笔记实现本地知识库(llama3、RAG) Obsidian笔记实现本地知识库(llama3、RAG)]()
在Smart Conntections对话框中进行提问,可以针对笔记内容问答,可以加上提示词“Based on my notes”,如果是ChatBMO中进行问答,只会参考当前的打开的笔记内容进行回答,不需要添加额外的提示词。
如上图所示,在Chat BMO中,针对当前打开的文档进行参考回答,而Smart Connectons可以针对所有的已经嵌入的文档进行回答,Smart Connections支持本地大模型,这样不需要使用付费的ChatGPT的API,就可以构建本地的笔记知识库系统,可能使用llama3本地模型速度,Windows纯CPU可以部署运行,Mac系统也可以安装部署,运行速度看机器硬件配置。本地模型的回答效果没有GPT回答的好,可以配置使用收费的ChatGPT接口实现问答。
安装配置Smart Connections,如下:
首先,是要去第三方插件库下载Smart Connections插件,如下:
![Obsidian笔记实现本地知识库(llama3、RAG) Obsidian笔记实现本地知识库(llama3、RAG)]()
配置使用本地大语言模型,如下:(以下内容,可以网上查)
原文始发于微信公众号(AI安全运营):Obsidian笔记实现本地知识库(llama3、RAG)
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
点赞
http://cn-sec.com/archives/3198855.html
复制链接
复制链接
-
左青龙
- 微信扫一扫
-
-
右白虎
- 微信扫一扫
-
评论