5 分钟配置 沉浸式翻译插件 接入本地模型
全网口碑炸裂的双语对照网页翻译插件,荣获 2024 Chrome 年度精选插件。虽然它提供了免费的翻译模型,但是翻译效果相当于 google 翻译水平。想要让外文阅读体验流露自然的中文表达,使用大模型必不可少。插件本身支持市面上绝大多数知名模型服务,但是它收费,模型服务也收费。相比起来,翻译场景花钱,实属大可不必。其实仅需 3 步,就可以免费白嫖大模型版的翻译水准,那就是让插件直接接入本地 ollama 服务。
Step1:安装 ollama 和 模型 (本地已安装跳过此步骤)
Step2:关键步骤:为 ollama配置跨域访问
sudo vim /etc/systemd/system/ollama.service
# 在[Service]部分添加:
Environment=”OLLAMA_ORIGINS=*”
Step3:在沉浸式翻译配置 API 接口
模型: qwen2.5:7b
自定义 API 接口地址:http://localhost:11434/v1/chat/completions
#翻译软件 #deepseek #插件 #大模型 #ollama
Step1:安装 ollama 和 模型 (本地已安装跳过此步骤)
Step2:关键步骤:为 ollama配置跨域访问
sudo vim /etc/systemd/system/ollama.service
# 在[Service]部分添加:
Environment=”OLLAMA_ORIGINS=*”
Step3:在沉浸式翻译配置 API 接口
模型: qwen2.5:7b
自定义 API 接口地址:http://localhost:11434/v1/chat/completions
#翻译软件 #deepseek #插件 #大模型 #ollama