这里有最新的使用文档和教程
Linux服务器远程搭建的DeepSeek如何与Chatbox进行对接?
如果您在服务器通过Linux部署好了DeepSeek大模型,默认是只能在字符界面进行对话的。
如下图:
为了获得更好的交互体验,可以安装 Chatbox 作为 GUI 界面。
下载地址:https://chatboxai.app/zh#download
下载后直接双击后即可。
安装完成后,进行以下配置:
在“配置 API 模型”选项中选择 Ollama API。
假如您的服务器IP是:192.63.63.63
那么这里设置 API 主机为:http://192.63.63.63:11434
选择 DeepSeek R1 作为默认模型。
保存设置。
默认情况下,Ollama 服务仅在本地运行,不对外提供服务。要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量:
如果 Ollama 作为 systemd 服务运行,应使用 systemctl 设置环境变量:
调用 systemctl edit ollama.service
编辑 systemd 服务配置。这将打开一个编辑器。
在 [Service] 部分下为每个环境变量添加一行 Environment:
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
按Ctrl+X退出,再按Y保存并退出
重新加载 systemd 并重启 Ollama:
systemctl daemon-reload systemctl restart ollama
此时打开Chatbox ,选择对接好的DeepSeek ,即可正常对话。