帮助中心

这里有最新的使用文档和教程

< 返回

服务器搭建的DeepSeek如何与Chatbox进行对接?

2025-02-09 14:16 作者:31IDC 阅读量:1041 所属分类:物理服务器

Linux服务器远程搭建的DeepSeek如何与Chatbox进行对接?

如果您在服务器通过Linux部署好了DeepSeek大模型,默认是只能在字符界面进行对话的。

如下图:

为了获得更好的交互体验,可以安装 Chatbox 作为 GUI 界面。

下载地址:https://chatboxai.app/zh#download

下载后直接双击后即可。

安装完成后,进行以下配置:

在“配置 API 模型”选项中选择 Ollama API。

假如您的服务器IP是:192.63.63.63

那么这里设置 API 主机为:http://192.63.63.63:11434

选择 DeepSeek R1 作为默认模型。

保存设置。

 

请注意:默认安装好的 Ollama 服务是不对外开放的,如何配置远程 Ollama 服务?

默认情况下,Ollama 服务仅在本地运行,不对外提供服务。要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量:

如果 Ollama 作为 systemd 服务运行,应使用 systemctl 设置环境变量:

  1. 调用 systemctl edit ollama.service 编辑 systemd 服务配置。这将打开一个编辑器。

  2. 在 [Service] 部分下为每个环境变量添加一行 Environment:

    [Service]
    Environment="OLLAMA_HOST=0.0.0.0"
    Environment="OLLAMA_ORIGINS=*"
    
  3. 按Ctrl+X退出,再按Y保存并退出

  4. 重新加载 systemd 并重启 Ollama:

systemctl daemon-reload
systemctl restart ollama

此时打开Chatbox ,选择对接好的DeepSeek ,即可正常对话。

31IDC - 12 年深耕海外 IDC 高端资源