之前文章尝试在本地部署了,但是只能使用命令行去访问,本篇就介绍一种可视化使用的方法,同时顺带教大家如何解决官网中使用R1模型时被撤回的问题。
ChatBox可视化使用
这里可视化软件推荐Chatbox软件,装好之后适配各种模型,同时也支持ollama,官网地址如下
https://chatboxai.app/zh
然后正常安装即可
软件好了之后,我们启动咱们的ollama以及之前下载好的模型
ollama run deepseek-r1:14b
上篇我们说到,ollama是提供api接口的,服务地址为
http://127.0.0.1:11434/
我们在ChatBox中打开设置
模型提供方选择OLLAMA API
然后填上地址,并选择模型即可
这样我们就配置好了,接下来尝试对话
可以看到,连思考都可视化了,这是使用咱们本地部署的模型
DeepSeek防撤回配置
既然,说到ChatBox可视化了,就在顺带说一下怎么解决DeepSeek的撤回问题。
我们在官网使用时DeepSeek时,它有一套自己的检测机制,判断说的话是否敏感,如果触发了机制,就会进行撤回,并返回如下内容
因为这个检测机制并不是DeepSeek本身的能力,而是官网接口的其他能力来检测输出。
所以,我们只需要通过API的方式,在本地使用就可以了。
目前官方的API功能暂时关闭了,这里推荐硅谷流动这个大模型API提供商
https://cloud.siliconflow.cn/i/Ym9Z89pS
新用户注册送14元额度
注册完成之后,我们在API密钥这里进行创建
然后将密钥复制,回到ChatBox中,设置中模型提供方选择SILICONFLOW API,并填入API密钥,模型选择DeepSeek-R1,保存即可
我们再尝试新建对话
此时我们就可以在本地通过API的方式使用了,再也不用担心撤回的问题了。
原文始发于微信公众号(飞羽技术工坊):可视化使用deepseek,顺带解决回答撤回的问题
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论