沉浸式翻译调用本地Ollama

admin 2024年8月5日16:17:46评论130 views字数 467阅读1分33秒阅读模式

既然本地部署了Ollama,沉浸式翻译这款神器插件,也可以使用本地的大模型进行更加优化的翻译了,首先点击左下角设置:

沉浸式翻译调用本地Ollama

接着选中OpenAI,点击“去修改”:

沉浸式翻译调用本地Ollama

选择“自定义API Key”,APIKEY中填写“ollama”,模型选择你“心仪”的大模型:

沉浸式翻译调用本地Ollama

然后在自定义 API 接口地址,填写“http://127.0.0.1:11434/v1/chat/completions”

沉浸式翻译调用本地Ollama

然后回到最上方的右上角,点击“点此测试服务”:

沉浸式翻译调用本地Ollama

如果显示403错误的话,可以使用以下方式解决:

  • Macos:
    输入launchctl setenv OLLAMA_ORIGINS "*" 后启动ollama APP

  • Linux:
    输入 OLLAMA_ORIGINS="*" ollama serve

  • Windows:
    控制面板-系统属性-环境变量-用户环境变量中新建2个环境变量:变量名OLLAMA_HOST 变量值设置为0.0.0.0,变量名OLLAMA_ORIGINS 变量值设置为*,再启动App。

测试,出现“验证成功”就表示成功了。

沉浸式翻译调用本地Ollama

原文始发于微信公众号(骨哥说事):沉浸式翻译调用本地Ollama

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年8月5日16:17:46
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   沉浸式翻译调用本地Ollamahttps://cn-sec.com/archives/3037695.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息