可视化使用deepseek,顺带解决回答撤回的问题

admin 2025年2月8日00:50:17评论246 views字数 835阅读2分47秒阅读模式

之前文章尝试在本地部署了,但是只能使用命令行去访问,本篇就介绍一种可视化使用的方法,同时顺带教大家如何解决官网中使用R1模型时被撤回的问题。

前篇:网页服务总繁忙,本地部署下DeepSeek R1

ChatBox可视化使用

这里可视化软件推荐Chatbox软件,装好之后适配各种模型,同时也支持ollama,官网地址如下

https://chatboxai.app/zh
可视化使用deepseek,顺带解决回答撤回的问题

然后正常安装即可

可视化使用deepseek,顺带解决回答撤回的问题
可视化使用deepseek,顺带解决回答撤回的问题

软件好了之后,我们启动咱们的ollama以及之前下载好的模型

ollama run deepseek-r1:14b
可视化使用deepseek,顺带解决回答撤回的问题

上篇我们说到,ollama是提供api接口的,服务地址为

http://127.0.0.1:11434/

我们在ChatBox中打开设置

可视化使用deepseek,顺带解决回答撤回的问题

模型提供方选择OLLAMA API

可视化使用deepseek,顺带解决回答撤回的问题

然后填上地址,并选择模型即可

可视化使用deepseek,顺带解决回答撤回的问题

这样我们就配置好了,接下来尝试对话

可视化使用deepseek,顺带解决回答撤回的问题

可以看到,连思考都可视化了,这是使用咱们本地部署的模型

DeepSeek防撤回配置

既然,说到ChatBox可视化了,就在顺带说一下怎么解决DeepSeek的撤回问题。

我们在官网使用时DeepSeek时,它有一套自己的检测机制,判断说的话是否敏感,如果触发了机制,就会进行撤回,并返回如下内容

可视化使用deepseek,顺带解决回答撤回的问题

因为这个检测机制并不是DeepSeek本身的能力,而是官网接口的其他能力来检测输出。

所以,我们只需要通过API的方式,在本地使用就可以了。

目前官方的API功能暂时关闭了,这里推荐硅谷流动这个大模型API提供商

https://cloud.siliconflow.cn/i/Ym9Z89pS

新用户注册送14元额度

注册完成之后,我们在API密钥这里进行创建

可视化使用deepseek,顺带解决回答撤回的问题
可视化使用deepseek,顺带解决回答撤回的问题

然后将密钥复制,回到ChatBox中,设置中模型提供方选择SILICONFLOW API,并填入API密钥,模型选择DeepSeek-R1,保存即可

可视化使用deepseek,顺带解决回答撤回的问题

我们再尝试新建对话

可视化使用deepseek,顺带解决回答撤回的问题

此时我们就可以在本地通过API的方式使用了,再也不用担心撤回的问题了。

原文始发于微信公众号(飞羽技术工坊):可视化使用deepseek,顺带解决回答撤回的问题

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年2月8日00:50:17
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   可视化使用deepseek,顺带解决回答撤回的问题https://cn-sec.com/archives/3706926.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息